SuiteCRM

Treinamento Pentaho Data Integration - Kettle

Sobre o Treinamento

O treinamento é recomendado a profissionais que busca maximizar seus conhecimentos em processos de ETL (Extract, Transform e Load). O Pentaho Data Integration (também conhecido como Kettle) é uma poderosa ferramentas para transformações de dados (ETL), com o PDI (Pentaho Data Integration) você pode fazer tarefas como migração de dados, transformação de dados, conversões de sistemas ou carga de bancos de dados, além de tarefas avançadas como transferência de arquivos, envios de e-mails, integração com webservices (SOAP ou REST) e programações de scripts com schedules.
Todo o treinamento utiliza a versão Community Edition e pode ser interpretado como uma transferência de tecnologia para os participantes do curso.

Calendário de turmas abertas

  1. Online Ao Vivo
  • Data: e -
  • Local:Online Ao Vivo - Aos Sábados
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Pentaho Data Integration (Kettle) para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático:

Conceituais:

Instalação - Pentaho Data Integration

  • Instalação do Pentaho Data Integration (Linux,Windows e MacOS).
  • Ambiente Server (Produção e Desenvolvimento ).

PDI - Pentaho Data Integration - Fundamentos

  • Componentes do Pentaho Data Integration (Kettle).
  • Spoon.
  • Pan.
  • kitchen.
  • Steps e Hops.
  • Transformação de dados.
  • Transformando dados em bases de dados Dimensionais (OLAP).
  • Populando tabelas (Dimensões e Fatos).
  • Integração entre Sistemas Transacionais.
  • Trabalhando com Merge de dados.
  • Trabalhando com constantes.
  • Explorando componentes.
  • Enviando e-mails.
  • Trabalhando com Jobs.

PDI – Automatizando Jobs e Transformações

  • Automatizando Jobs e Transformações via agendador (Schedulers no Linux e Windows).
  • Passando Parâmetros via linha de comando.
  • Passagem de parâmetro entre transformações e Jobs.
  • Trabalhando com Logs.

Trabalhando com Planilhas e Arquivos Texto

  • Transformando Planinhas em bases de dados SQL.
  • Transformando Base de Dados SQL em Planinhas.
  • Transformando arquivos texto em bases de dados SQL.
  • Transformando Base de dados SQL em arquivos Texto (posicional ou delimitado).

Steps Complementares e Avançados

  • Steps de Input (Get System info ,get File Names, OLAP Input ,Email messages input).
  • Steps de Transformação ( Row denormaliser , Row flattener ,Row Normaliser ,Split field to Rows, Split Fields).
  • Steps Utility (Clone Row , If field value is null, Run SSH commands).
  • Steps Lookup (Call DB procedure, Check if a column exists, check if file is locked, Database Join, Database lookup, File Exists).
  • Steps Joins ( Join Rows ( cartesian product ), Merge rows (diff), Sorted Merge , XML Join).
  • Steps Experimentais (Script Javascript , Script Python).
  • Steps Jobs – Utility (ping a Host, Truncate tables).
  • Steps Jobs – Mail (Get mails POP3/IMAP).
  • Steps File management (Copy Files, create file, create a folder, file comparate, delete files, delete folters, Zip file).
  • Steps Condition (Check DB connection, Check webservice availability).
  • Steps Scripting (Javascript, Shell, SQL).
  • Steps XML (DTD Validation).
  • Steps File Transfer (FTP delete, Get a file with FTP, Get a file with SFTP, Upload files to FTPS, SSH2 Get, SSH2 Put).

PDI - WebServices e HTTP

  • Acesso a WebServices com Web services lookup (SOAP).
  • Acesso a WebServices REST com step Rest Client.
  • Gerando JSON para envio por REST com os steps JSON Output e JavaScript.
  • Chamadas HTTP por URL com step HTTP Client.
  • Chamadas submit via Post/HTTP com o step HTTP Post.

Carte – Execução remota

  • Conceitos do Carte.
  • Modos de Execução do Pentaho Data Integration.
  • Executando Transformações e Jobs remotamente.
  • Monitorando execuções remotas.
  • Master e Slaves com Carte.
  • Conceitual Dynamic Cluster.
  • Introdução a Data Staging.

Carga Horária

  • 16 Horas de Duração

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pela Hitachi Vantara.

  • Data: e -
  • Local:Online Ao Vivo - Aos Sábados
  • Contato
 

Inscrições, Informações e Valores

Powered by BreezingForms


Instrutor

Leia mais...

Treinamento Apache Hop

Sobre o Treinamento

O treinamento é recomendado a profissionais que busca maximizar seus conhecimentos em processos de ETL (Extract, Transform e Load). O Apache Hop e um projeto incubado na Apache Software Foundation fork do Pentaho Data Integration,  é uma poderosa ferramentas para transformações de dados (ETL), você pode fazer tarefas como migração de dados, transformação de dados, conversões de sistemas ou carga de bancos de dados, além de tarefas avançadas como transferência de arquivos, envios de e-mails, integração com webservices (SOAP ou REST) e programações de scripts com schedules.

Calendário de turmas abertas APACHE HOP

  1. Online Ao Vivo
  • Data: e -
  • Local:Online Ao Vivo
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Hop para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático:

Conceituais:

  • Introdução a Business Intelligence.
  • Introdução a Datawarehouse.
  • O que é ETL? (Extração, Transformação e Carga).
  • Histórico do Apache Hop.
  • Licenciamento do Apache Hop.
  • Software Livre x Open Source.
  • A Apache Software Foundation.
  • Diferenças do Pentaho Data Integration X Talend X Apache Hop.
  • Empresas usando Apache Hop no Mundo.
  • Empresas usando Apache Hop no Brasil.
  • A Empresa Lean.
  • Plataforma Lean: Orquestration, Presentation e Knowledge.
  • Comunidade Apache Hop.

Instalação - Apache Hop

  • Pré-requisitos.
  • Instalação do Apache Hop.
  • Ambiente Server (Produção e Desenvolvimento).
  • Configurações do Apache Hop.

Fundamentos do Apache Hop

  • Arquitetura do Apache Hop.
  • Componentes do Apache Hop.
  • Hop GUI.
  • Hop Server.
  • File Dialog.
  • Hop Web.
  • Conexões.
  • Hop Conf.
  • Hop run.
  • Hop Search.
  • Hop-encrypt.
  • Hop Import.
  • Hop Translate.

Pipelines com Apache Hop

  • Pipeline Editor.
  • Criando um Pipeline.
  • Executando Previsualizando e Debugando um pipeline
  • Configurações de execução de pipelines.
  • Tests Unitários.
  • Metadata Injection.
  • Transformações.
  • Logs do pipeline.

Desenvolvendo Pipelines.

  • Transformando dados em bases de dados Dimensionais (OLAP).
  • Integração entre Sistemas Transacionais.
  • Trabalhando com Merge de dados.
  • Trabalhando com constantes.
  • Explorando componentes.
  • Enviando e-mails.
  • Transformando Planinhas em bases de dados SQL.
  • Transformando Base de Dados SQL em Planinhas.
  • Transformando arquivos texto em bases de dados SQL.
  • Transformando Base de dados SQL em arquivos Texto (posicional ou delimitado).
  • Trabalhando com Webservices (REST e SOAP)
  • Manipulando arquivos JSON.
  • Trabalhando com  arquivos XML.
  • Manipulando o pipeline com Javascript.
  • Implementando condicionais.
  • Componentes para Big Data.

Workflows Apache Hop

  • Criando um Workflow.
  • Executando e Debugando um workflow.
  • Configurações de execução de Workflows.
  • Logs do Workflow.
  • Manipulando file Systems.
  • Trabalhando com transferências de arquivos (FTP, SSH, etc).

Funcionalidades Complementares Apache Hop

  • Automatizando Workflows e Pipelines.
  • Variáveis.
  • Passando parâmetros via linha de comando.
  • Passagem de parâmetro entre pipelines e workflows.
  • Virtual File System - AWS S3.
  • Virtual File System - Microsoft Azure Storage.
  • Virtual File System - Google Cloud Storage
  • Virtual File System - Google Driver.
  • Trabalhando com Logs.
  • AES Password encoder.

API REST do Apache Hop

  • Configurando a API REST.
  • Consumindo a API REST.

Hop – Plugins

  • Principais plugins do Apache Hop.
  • Instalando um plugin.
  • Overview de Desenvolvimento de um plugin.

Apache Hop - Itens Gerais

Pré-Requisitos

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Carga Horária

  • 24 Horas de Duração

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Hop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Hop e cursos Apache Hop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Próxima turma:

 

  • Data: - -
  • Local: Online Ao Vivo
  • Inscreva-se
 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Dashboards com Pentaho CTools

Sobre o Treinamento / Curso

Os CTools são um conjunto de componentes de código aberto projetados para ampliar as suas opções de personalização em Dashboards Pentaho, podem ser utilizados nas versões CE e EE do Pentaho, totalmente compatíveis com plataformas móveis. Este treinamento é recomendado a usuários e desenvolvedores que já conhecem o básico de Pentaho e querem aprimorar conhecimento no desenvolvimento de Dashboards usando as CTools para obter uma excelente identidade visual e UX refinado.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Objetivo

Ministrar as principais funcionalidades das CTools para o desenvolvimento de Dashboards Avançados.

Público Alvo

O treinamento ou curso Pentaho Dashboards destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, analistas de suporte que já tenham conhecimento básico de BI e querem focar no desenvolvimento de dashboards interativos com o Pentaho.

Conteúdo Programático:

Conceitual

  • A Plataforma Pentaho.
  • Conceitual sobre Dashboards.
  • Indicadores com KPI's e CPM.
  • Histórico das C*Tools.
  • Arquitetura das CTools.
  • O repositório com Apache Jackrabbit.

 Instalação das Ctools

  • Formas de instalação dos plugins CTools no Pentaho Server.
  • Versões estáveis.
  • Marketplace.

CDF - Community Dashboard Framework

  • O Framework CDF.
  • Ciclo de vida e Comportamento.
  • Visão geral sobre os componentes
  • Interação entre componentes
  • Integrando HTML4, HTML5 e CDF
  • Desenvolvendo dashboards com CDF

CDE - Community Dashboard Editor

  • Conceitos do CDE.
  • Desenvolvendo Layouts.
  • RequiresJS e Bootstrap.
  • Criando Templates personalizados de Dashboards.
  • Criando Dashboards a partir de Wizards.
  • Criando Dashboards com o CDE.
  • Interagindo com Datasources.
  • Manipulando a saída de um datasource.
  • Personalizações com jQuery e Javascript.
  • Adicionando Recursos  de Javascript e CSS.
  • Construindo Dashboards em Cascata.
  • Integrando Mapas e Dashboards.
  • Componentes de Filtros.
  • Elementos de Multi-seleção.
  • Outros Componentes.
  • Passagens de Parâmetros.
  • CDE Widgets
  • Estendendo o CDE.
  • Customizando Tooltips.

CDA - Community Data Access

  • Conceitos do CDA.
  • CDA e JSON.
  • Criando datasource com SQL.
  • Criando Datasources com MDX.
  • Criando um datasource com ETL.
  • Union no CDA.
  • Join no CDA.
  • Usando Web API CDA.
  • Web API CDA - doQuery.
  • Web API CDA - clearCache.
  • Web API CDA - listParameters
  • CDA cache.

CCC - Community Chart Components

  • Conceitos do CCC.
  • CCC2 – Versão 2.
  • Gráficos Protovis.
  • Pie Chart.
  • BarChart.
  • LineChart.
  • Stacked Line.
  • Stacked Area.
  • Heat Grid.
  • Bullet.
  • Waterfall.
  • Metric dot.
  • Customizando Gráficos com Extension Points.

CDV - Community Data Validation

  • Conceitos do CDV.
  • Criando validações.
  • Interagindo com mensagens de erro.
  • Interfaces externas ( e-mail, http).

CST - Community Startup Tabs

  • Conceitos do CST.
  • Instalando o CST.
  • Configurando usuários de Startup.
  • Configurando Grupos de Startup.
  • Startup de Dashboards,Cubos e Relatórios.

CDG - Community Data Generator

  • Conceitos do CDG.
  • Gerador de datawarehouse.
  • Gerando as tabela fato.
  • Gerando arquivos de Inserts para Fato.
  • Gerando Schema para Mondrian.

CGG - Community Graphics Generator

  • Conceitos do CGG.
  • Usando o CGG com Pentaho Report Designer.
  • Enviando Dashboards em PDF por e-mail via PRD.

Plugins e Bibliotecas Externas

  • Os Componentes HighCharts e Highstock
  • Instalando o Highcharts no Pentaho
  • Integrando o CDE a biblioteca de gráficos HightCharts.

Assuntos gerais

  • Alterando configurações de plugins.
  • Definição de acessos aos Dashboards.
  • Migrando CCC para CCC2.
  • Pentaho App Builder.
  • Embedding Dashboards.
  • Formas de Debug.
  • Protovis e D3js.

Pré-requisitos de Conhecimento

  • Conhecimento básico em lógica de programação.
  • Conhecimento em Front-end (JavaScript, CSS, HTML e JSON)
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.
  • Conhecimento Básico em Pentaho Data Integration
  • Conhecimento Básico em Mondrian e MDX.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: 4 perocessadores
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Carga Horária

  • 24 Horas de Duração

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações (Apenas nos presenciais).

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Inscrições, Informações e Valores.

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento em Modelagem Dimensional

Sobre o Treinamento

Este treinamento é recomendado a técnicos, desenvolvedores, DBAs e gestores que buscam uma visão aprofundada do conceito de modelagem dimensional para construção de Data Warehouses em projetos de Business Intelligence. O mesmo não é focado em ferramentas e sim em toda a abrangência conceitual. Ao final do treinamento algumas atividades práticas são desenvolvidas sobre uma ferramenta para aplicar os conceitos adquiridos fortalecendo o conhecimento com a prática.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos sobre modelagem dimensional e sua aplicação na construção de um Data Warehouse.

Público Alvo

O Treinamento Modelagem Dimensional destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas,  que tenham conhecimento em Bancos de Dados.

Conteúdo Programático:

Introdução

  • Introdução a Business Intelligence.
  • Introdução a Modelagem Dimensional.
  • Introdução a Data Warehouse.
  • Introdução a DataMart.
  • MDA - Master Data Management.
  • MDA X DW.
  • ETL (Extract Transform e Load) e Data Integration.
  • OLAP - Online Analytical Processing.
  • OLTP - Online Transaction Processing.
  • OLTP X OLAP.
  • ROLAP, MOLAP, HOLAP, DOLAP e WOLAP.

Modelagem Dimensional

  • Modelo Dimensional Estrela (Star Schema) - Ralph Kimball.
  • Modelo Floco de Neves (Snowflaking) - Bill Inmon.
  • Star Schema x Snowflaking.
  • Drill-down e Roll-up.
  • Drill-across.
  • Drill-throught.

Data Warehouse

  • Data warehouse Híbrido.
  • Ciclo de Vida do Data warehouse.
  • Passos da modelagem dimensional.
  • Data warehouse - Processo de Negócio
  • Estimativa de tamanho de um data warehouse.

Data Warehouse - Dimensões.

  • Tabela Dimensionais.
  • Normalização de dimensões.
  • Surrogate Key.
  • Business Key.
  • Hierarquia.
  • Atributo.
  • Dimensão Tempo.
  • Dimensão Degenerada (Degenerate Dimension).
  • Dimensões – Tipos 1, 2, 3 e técnicas híbridas.
  • Slowly Changing Dimensions (SCD) - Tipo 1.
  • Slowly Changing Dimensions (SCD) - Tipo 2.
  • Dimensão Lixo (Junk Dimension).

Data Warehouse - Fato

  • Data warehouse - Granularidade.
  • Tabelas Fato.
  • Fato Agregada.
  • Surrogate Key.
  • Surrogate Keys Negativas.
  • Métricas e Medidas.
  • Grão.
  • Definição de índices.

Modelagem na prática.

  • Modelando um Caso Real (Prático).

Implementação com Ferramentas Open Source.

Assuntos Complementares

  • Data Staging.
  • Agile.
  • Levantamento de Requisitos de Projetos de BI.
  • Os 10 mandamentos de Ralph Kimball.
  • Principais ferramentas de BI do Mercado.

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 24 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares da Pentaho e do PostgreSQL e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho, Modelagem Dimensional  e cursos sobre Data Warehouse. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Geo Business Intelligence com Pentaho

Sobre o Treinamento

O treinamento Geo Business Intelligence com Pentaho é recomendado a profissionais que já conheçam o fundamental da Plataforma Pentaho e querem conhecer os recursos e suportes do Pentaho ligados a GIS, GEO e MAPPING. Este treinamento demonstrar recursos de integracão e manipulação de dados geo espaciais, os steps e suportes do Pentaho Data Integration e as formar de renderização e apresentação visual nos cubos OLAPs e Dashboards do Pentaho.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar as principais funcionalidades e suportes da Plataforma Pentaho com foco na construção de Mapas e tratamentos de dados geo espaciais, gerando informações para tomada de decisão.

Público Alvo

O Curso Geo Business Intelligence com Pentaho, destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, Cientistas de Dados , analistas de suporte entre outros profissionais envolvidos com gestão de dados espaciais.

Conteúdo Programático:

Introdução ao Pentaho Geo-Mapping

  • Visão geral do uso de Mapas no Pentaho.
  • Desafios de trabalhar com dados espaciais.
  • Principais recursos da plataforma Pentaho.

 Pentaho Data Integration e GEO MAPPING:

  • Manipulando dados geo espaciais com Pentaho Data Integration.
  • Instalando plugins adicionais no Pentaho Data Integration (PDI)
  • Trabalhando com latitude e longitude.
  • Step ESRI Shapefile Reader
  • Manipulando arquivos KML
  • PDI Gis Plugin.
  • MaxMind GeoIP Lookup
  • IP Locator Component
  • Onde Encontrar Base de Dados com Latitude e Longitude do Brasil

Mondrian e Geo Map

  • Criando uma dimensão com geo localização.
  • Suporte a Geo Map no Schema Mondrian
  • Annotations
  • Member properties

Construindo Dashboards com Mapas utilizando as CTools

  • Componentes Ctools para Mapas
  • New Map Component
  • Map Engine: Openlayers e Google Maps
  • Preparando o Datasource para os Mapas
  • Gerando Resultsets e metadados com PDI Datasource.
  • GeoCode
  • Filtrando dados em Mapas
  • Interatividade com Mapas nos Dashboards
  • Google Maps Overlay
  • IvyDC - Ivy Dashboard Components plugin
  • Visão geral dos Mapas em D3.js
  • Integrando D3.js Maps com CDE Dashboards
  • Integrando com a API do Google Maps

Pentaho Report e Geo Mapping

  • Adicionando Mapas ao PDR com as Ctools
  • Usando o CGG com Pentaho Report Designer (PRD)

 

Pré-requisitos de Conhecimento

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.
  • Conhecimento básico de GIS/GEO
  • Conhecimento Básico em Pentaho Data Integration
  • Conhecimento Básico em Pentaho Report Designer
  • Conhecimento Básico em Mondrian e Saiku
  • Conhecimento Básico em Ctools

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 16 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutores

Leia mais...

Treinamento Redis - Fundamental

Sobre o Treinamento

O treinamento fundamental Redis e voltado para administradores e desenvolvedores que querem conhecer este banco de dados ou armazenamento de estrutura de dados de chave-valor open source de memória. O Redis oferece um conjunto de estruturas versáteis de dados na memória que permite a fácil criação de várias aplicações personalizadas. Os principais casos de uso do Redis incluem cache, gerenciamento de sessões, PUB/SUB e classificações. É o armazenamento de key-value mais conhecido atualmente segundo o relatório da DB Engines (https://db-engines.com/en/ranking/key-value+store). Ele tem a licença BSD, é escrito em linguagem C otimizado e é compatível com várias linguagens de desenvolvimento. Redis é um acrônimo de REmote DIctionary Server (servidor de dicionário remoto). Por conta da sua velocidade e facilidade de uso, o Redis é uma escolha em alta demanda para aplicações web e móveis, como também de jogos, tecnologia de anúncios e IoT, que exigem o melhor desempenho do mercado.

Calendário de turmas abertas

Somente in Company.

Conteúdo Programático

Introdução

  • O que é um Redis.
  • Por que usar um banco de dados de memória?
  • O Projeto Redis.
  • Redis X ApsaraCache.
  • Licenciamento (Free Software X Open Source)
  • Caso de uso de Redis.
  • Empresas usando Redis no Mundo.
  • Empresas usando redis no Brasil.

Instalação e Configuração

  • Instalando o Redis.
  • Configurando o Redis.

Redis Security

  • Modelo de Segurança.
  • Segurança de rede.
  • Modo protegido
  • Autenticação.

Data Model

  • Tipos de Dados Primitivos
  • Abstrações.
  • Redis Keys.
  • Redis Strings
  • Redis Expires.
  • Redis Lists.
  • Redis Hashes.
  • Bitmaps.
  • Pub/Sub.
  • Módulos externos.

Desenvolvimento com Redis

  • Principais comandos.
  • Redis Lua scripting.
  • Pipeline.
  • Particionamento.
  • Otimização de memória.
  • Inserção em massa de dados.
  • Usando ETL Pentaho Data Integration para processo de inserção.
  • Distributed lock.
  • Secondary indexing.
  • Redis Lua scripts debugger.
  • Modules API.

Administração do Redis

  • Mecanismos de persistência disponíveis.
  • Precauções para evitar o desgaste do SSD.
  • Backup e restauração.
  • Ferramentas para explorar o conteúdo do banco de dados.
  • Ferramentas para análise de despejo.
  • Ajustando durabilidade X desempenho.
  • Alternando entre RDB e AOF.
  • Casos de uso para Redis sem disco.
  • Ajustáveis no nível do SO relevantes para Redis.
  • Monitorando o desempenho do Redis.
  • Backup and restore.

Alta Disponibilidade com Redis.

  • Instalar e configurar multi-Redis servers.
  • Standalone com várias instâncias.
  • Replicação Master/slave.
  • Cluster Redis HA com Sentinel
  • Redis sharding cluster.
  • Combinação de replicação Redis (com Sentinel) + capacidade de sharding
  • Monitoramento, backup/restauração e ajuste de desempenho para a instalação.

Carga Horária:

  • 24 Horas.
  • Presencial ou Ao Vivo Remotamente.

Pré-Requisitos:

  • Conhecimento básico em programação.
  • Conhecimento básico em banco de dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS (64 bits).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Redis e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Rediscursos Redis caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Flume

O Apache Flume é um serviço distribuído, confiável e disponível para coletar, agregar e mover de forma eficiente grandes quantidades de dados de registro. Possui uma arquitetura simples e flexível baseada em fluxos de dados de streaming. É robusto e tolerante a falhas com mecanismos de confiabilidade ajustáveis e muitos mecanismos de failover e recuperação. Ele usa um modelo de dados extensível simples que permite a aplicação analítica on-line. O nosso treinamento prepara os alunos para trabalhar com fluxos de dados streaming para dar suporte a aplicações analíticas de Big Data com base em atividades conceituais e práticas.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Streaming.
  • Introdução a Big Data.
  • Ecossistema Hadoop.
  • O Software Apache Flume.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • Histórico do Flume.
  • Empresas usando Flume no Mundo.
  • Empresas usando Flume no Brasil.
  • Comunidade Flume.
  • Versões.

Arquitetura.

  • Arquitetura do Apache Flume.
  • Flume NG.
  • Modelo de Fluxo de Dados.
  • Variáveis de Ambiente.

Instalando o Apache Flume.

  • Requisitos do Apache Flume.
  • Configurando o Apache Flume.
  • Instalando o Apache Flume.
  • Configurando Componentes.
  • Iniciando Agents.

Flume Sources.

  • Avro.
  • Thrift.
  • Exec.
  • JMS.
  • Taildir.
  • Apache Kafka.
  • HTTP Source.
  • Custom source.

Flume Sinks.

  • Data Ingestion.
  • Flume Sinks
  • HDFS Sink.
  • Hive Sink.
  • Avro Sink.
  • Thrift Sink.
  • HBase Sink
  • Flume Sink Processors.

Flume Channel.

  • Flume Channels.
  • Memory Channel.
  • JDBC Channel.
  • Kafka Channel.
  • File Channel.
  • Spillable Memory Channel.
  • Pseudo Transaction Channel.
  • ElasticSearch Sink.
  • Custom Channel.
  • Flume Channel Selectors.
  • Event Serializers.
  • Flume Interceptors.

Gerais.

  • Raw Data.
  • Instalando Plugins.
  • Flume Properties.
  • Network Streams.
  • Multi agents.
  • Consolidação.
  • Segurança no Apache Flume.

Carga Horária.

  • 16 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de de Hadoop e HDFS.
  • Conhecimento Básico de Kafka, JDBC e HBase.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Flume e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Flume e cursos Apache Flume . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Parquet

O treinamento em Apache Parquet tem foco em aprofundar o conhecimento de engenheiros de dados do formato mais utilizado pelos ambiente de Big data da atualidade, além dos conceitos, vantagens e arquitetura os profissionais poderão administrar a forma mais interessante do Parquet para seu ambiente de dados / big data. O treinamento passa pelo fundamental e estende-se ao avançado.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Big Data.
  • Arquivos serializados.
  • Formato Colunar.
  • O Software Apache Parquet.
  • Motivações do Parquet.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • Histórico do Parquet.
  • Empresas usando Parquet no Mundo.
  • Empresas usando Parquet no Brasil.
  • Comunidade Parquet.
  • Versões do Parquet.

Apache Parquet

  • Arquitetura do Apache Parquet.
  • Otimização com Parquet.
  • Parquet x JSON x CSV x Apache ORC.
  • Tipos de dados.
  • Block.
  • File.
  • Row group.
  • Column chunk
  • Page.
  • Metadata.
  • Nested Encoding.

Compactação e Criptogratia.

  • Tipos de Compactação.
  • Vantagens e Desvantagens.
  • Criptografia do Parquet.

Parquet no Ecossistema de Big Data.

  • Hive e Parquet.
  • Spark e Parquet.
  • Hadoop Input/Output e Parquet.
  • Pentaho Data Integration e Parquet.

Build

  • Apache Maven.
  • Compilando o Parquet.

Módulos

  • Apache Parquet for C++.
  • Apache Parquet em Rust.
  • Parquet MR.

Parquet na Cloud.

  • AWS S3 Inventory

Gerais.

  • Extendendo o Parquet.
  • Config Row group size.
  • Config Data page size

Carga Horária.

  • 4 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de de Hadoop e HDFS.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Parquet e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Parquet e cursos Apache Parquet . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Log in