Home Treinamento Treinamento em Hadoop - Big Data Open Source
PDF Imprimir E-mail

 Treinamentos em Hadoop - Big Data Open Source

  Curso Hadoop

  O Apache Hadoop é um projeto desenvolvimento como software open-source para ambientes escaláveis, confiáveis para armazenamento, compartilhado, análise, assim como processamento distribuído. Todos eles com um baixo custo de investimento.
Os nossos cursos de Hadoop leva aos nossos alunos uma visão geral do uso do Hadoop e seu ecosistemas de aplicações e sua implementação e uso na solução de problemas corporativos. Todo o treinamento utiliza apenas aplicações Open Source e pode ser interpretado como uma transferência de tecnologia para os participantes do curso.

Nossos treinamentos em Hadoop são essenciais na apresentação deste novo ecosistema de software através do curso Hadoop Overview, assim como também temos treinamentos mais completo e aprofundados e com atividades práticas para a formação de profissionais Cientistas de Dados ( Data Scientists ) e Especialistas em BigData, que é o caso da nossa formação Hadoop Fundamental.  Confira nossos cursos Hadoop abaixo.

 Treinamentos em Hadoop - Big Data Open Source - Fundamental

 

  O treinamento fundamental em Apache Hadoop prepara profissionais para o mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.


Disponibilidade e Calendário do Treinamento

Local                                                                          
Data e Horário                                                        
Investimento       
Natal - RN De 21 a 23 de Junho de 2017
Solicite Orçamento
São Paulo - SPDe 26 a 28 de Junho de 2017Solicite Orçamento

Treinamentos in-Company

Capacite toda sua equipe, realizamos treinamentos In-company em todo o Brasil. Os treinamentos in-company permitem um investimento único para uma equipe de até 12 pessoas.

Investimento: Solicitar proposta comercial.

Formas de Pagamento

  • Depósito Bancário.
  • Boleto.
  • Nota de empenho para orgãos públicos.
  • Em até 18 vezes com cartão de créditos via PagSeguro*

*Os juros do parcelamento são calculados de acordo com seu cartão de crédito, cada cartão tem quantidade de parcelamento diferenciado.



Objetivos.

Ministrar as principais características do Apache Hadoop e conceitos de Big Data. O funcionamento e instalação do cluster com Hadoop, conceitos básicos de execução do programa escrito em MapReduce.

Público alvo do treinamento.


Gestores de TI, Cientistas de Dados, Analistas de Business Intelligence, Engenheiros da Computação.

Conteúdo Programático

Conceitual Big Data

  1. O que é Big Data?
  2. Os 4 V's principais do Big Data.
  3. O Profissional Cientista de Dados / Data Scientist.
  4. Data Lake.
  5. IoT - Internet das Coisa e Big Data.
  6. Ferramentas de Big Data.
  7. Software Livre e Open Source

Conceitual Apache Hadoop

  1. Visão geral sobre Hadoop
  2. Características do Hadoop
  3. Sistema distribuído de arquivos.
  4. Ecosistema Hadoop
  5. Quem usa o Hadoop
  6. Cases do uso Hadoop
  7. Uso de Hadware comum.
  8. Distribuições do Hadoop


Instalação do Apache Hadoop

  1. Requisitos de Instalação
  2. Adquirindo os pacotes de Instalação
  3. Modo de Instalação ( SingleCluster, DistribuidMode )
  4. Configuração do Ambiente de Rede
  5. Configurando Yarn.
  6. Criando diretórios físicos para o Filesystem
  7. Formatação do FileSystem
  8. Iniciaizando Serviços
  9. Iniciando o cluster com seus nós
  10. Testando Processos ativos

HDFS

  1. Conceitual HDFS
  2. HDFS - Hadoop FileSystem
  3. HDFS - MapReduce Data Flow
  4. HDFS - Arquitetura
  5. Comandos de manipulação do FileSystem
  6. Copiando arquivos para o FileSystem
  7. Listando arquivos no HDFS
  8. Criando e Removendo Diretórios
  9. Interface Web do HDFS

MapReduce

  1. Conceitual Map Reduce
  2. MapReduce X Hadoop
  3. MapReduce - Função Map
  4. MapReduce - Função Reduce
  5. Fluxo de Trabalho
  6. Executando um MapReduce
  7. MapReduce no cluster
  8. Configurando a IDE Eclipse para MapReduce
  9. Criando um novo MapReduce

CDH - Cloudera Hadoop

  1. Usando a Distribuição Cloudera
  2. Componentes do CDH.
  3. Cloudera Hadoop X Apache Hadoop
  4. Interface de gerenciamento Web ( Hue )

Introdução a outras ferramentas de trabalho.

  1. Hortonworks
  2. Apache Mahout.
  3. Hbase -  Banco de dados distribuído orientado a coluna.
  4. Pig - Plataforma de alto nível para a criação de programas MapReduce.
  5. Hive - uma infraestrutura de data warehouse sobre o Hadoop.
  6. Apache Cassandra - Banco de dados distribuído altamente escalável de segunda geração.
  7. Apache Sqoop.
  8. Pentaho Data Integration e Hadoop.


Pré-requisitos

  • Conhecimento de Servidor Linux e TCPIP, conhecimento básico de programação.

Requisitos

Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 10GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : Linux( de preferência baseados em Debian), Windows , MacOS.
  • VirtualBox.

    Obs. Equipamentos com menos que 6GB podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento.

Carga Horária

24 Horas de Duração
100% Presencial


Material e Metodologia

Material
Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Hadoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.alt
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Overview em Hadoop - Big Data Open Source

 

O overview em Apache Hadoop é um curso rápido que apresenta para profissionais da área de tecnologia o potencial de uso do Hadoop. seu conteúdo programático foi desenvolvido para que profissionais possam entender o funcionamento e aplicação do ambiente Hadoop, e como ele pode ajudar na solução de problemas de Big Data em suas corporações. O mesmo abrange conceitos de Big Data, armazenamento, MapReduce e processamento distribuído.


Disponibilidade e Calendário do Treinamento

Local                                                                                           
Data e Horário                                          
Investimento 
Treinamento Exclusivo no Formato in-Company
Clique e solicite mais informações

Treinamentos in-Company

Capacite toda sua equipe, realizamos treinamentos In-company em todo o Brasil. Os treinamentos in-company permitem um investimento único para uma equipe de até 12 pessoas.

Investimento: Solicitar proposta comercial.

Formas de Pagamento

  • Depósito Bancário.
  • Boleto.
  • Nota de empenho para orgãos públicos.
  • Em até 18 vezes com cartão de créditos via PagSeguro*

*Os juros do parcelamento são calculados de acordo com seu cartão de crédito, cada cartão tem quantidade de parcelamento diferenciado.



Objetivos.

Ministrar as principais características do Apache Hadoop na apresentação de uma visão geral do ecosistema e sua aplicação na olução de problemas de Big Data.

Público alvo do treinamento.


Gestores de TI, Cientistas de Dados, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio.


Conteúdo Programático

Conceitual Apache Hadoop

  1. Visão geral sobre Hadoop.
  2. Características do Hadoop.
  3. Sistema distribuído de arquivos
  4. Ecosistema Hadoop.
  5. Quem usa o Haddop.
  6. Cases do uso Haddop.
  7. Uso de Hadware comum.
  8. Distribuições do Hadoop.

HDFS

  1. Conceitual HDFS

MapReduce

  1. Conceitual Map Reduce

Ferramentas de trabalho.

  1. Apache Mahout.
  2. Hbase -  Banco de dados distribuido orientado a coluna.
  3. Pig - Plataforma de alto nível para a criação de programas MapReduce.
  4. Hive - uma infraestrutura de data warehouse em cima do Hadoop.
  5. Apache Cassandra - Banco de dados distribuído altamente escalável de segunda geração.


Pré-requisitos

  • Conhecimentos conceituais na área de computação.
  • Conhecimentos básicos de ambiente Servidor Linux, TCPIP, lógica de programação.
  • Vivência em administração e armazenamento de dados.
  • Visão de lógica de negócios.

Requisitos

Alunos

  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Nenhum.

Carga Horária

8 Horas de Duração
100% Presencial


Material e Metodologia

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Material próprio em Português do Brasil.alt
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Serão apresentados e debatidos todos os assuntos expostos na aula.

 
Pentaho e Hadoop


Pentaho com Hadoop

 

O treinamento Pentaho e  Hadoop é um curso rápido que apresenta para profissionais da área de tecnologia que já tenham conhecimento em Hadoop e Pentaho o potencial de uso do Pentaho para extração e manipulação dos dados oriundos do Cluster Hadoop. seu conteúdo programático foi desenvolvido para que profissionais possam entender o funcionamento da aplicação Pentaho Business Intelligence  e como ele pode ajudar na solução de problemas de visualização a analise de Big Data em suas corporações.

Disponibilidade e Calendário do Treinamento

Local                                                                                           
Data e Horário                                          
Investimento 
Treinamento Exclusivo no Formato in-Company
Clique e solicite mais informações

Treinamentos in-Company

Capacite toda sua equipe, realizamos treinamentos In-company em todo o Brasil. Os treinamentos in-company permitem um investimento único para uma equipe de até 12 pessoas.

Investimento: Solicitar proposta comercial.

Formas de Pagamento

  • Depósito Bancário.
  • Boleto.
  • Nota de empenho para orgãos públicos.
  • Em até 18 vezes com cartão de créditos via PagSeguro*

*Os juros do parcelamento são calculados de acordo com seu cartão de crédito, cada cartão tem quantidade de parcelamento diferenciado.



Objetivos.

Ministrar as principais características do Pentaho e suas integrações com Hadoop e sua aplicação na solução de problemas de Big Data.

Público alvo do treinamento.


Gestores de TI, Cientistas de Dados, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio.


Conteúdo Programático

Conceitual

  1. Visão geral sobre Hadoop.
  2. Visão Geral sobre o Pentaho.
  3. Pentaho + Haddop + BigData + Analytics 

Pentaho Data Integration

  1. Desenvolvimento visual para a preparação de dados Hadoop e modelagem.
  2. Pentaho Visual MapReduce.
  3. Carga de Dados no HDFS
  4. Carga de Dados no Hive
  5. Carga de Dados no HBase
  6. Transformando Dados com MapReduce
  7. Transformando dados usando Hive
  8. Transformando dados usando scripts PIG.
  9. Extraindo HDFS para RDBMS
  10. Extraindo Hive para RDBMS
  11. Extraindo HBase para RDBMS

CTools - Dashboards

  1. Visualização e exploração para Hadoop de forma interativa

Pentaho Report Designer.

  1. Relatórios de arquivos do HDFS
  2. Relatórios do Hive
  3. Relatórios do HBase

Pré-requisitos

  • Conhecimento em Hadoop
  • Conhecimento em Pentaho
  • Conhecimentos conceituais na área de computação.
  • Conhecimentos básicos de ambiente Servidor Linux, TCPIP, lógica de programação.
  • Vivência em administração e armazenamento de dados.
  • Visão de lógica de negócios.

Requisitos

Alunos

  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Nenhum.

Carga Horária

8 Horas de Duração
100% Presencial


Material e Metodologia

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Material próprio em Português do Brasil.alt
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Serão apresentados e debatidos todos os assuntos expostos na aula.

 


Sobre o Instrutor

Marcio Junior Vieira.

  • Mais de 16 anos de vivência com tecnologias emergentes e Software Livre.
  • Ministra treinamentos de diversos softwares de apoio básico ou empresarial.
  • Trabalha com Hadoop deste 2012 em Projetos de Big Data da Ambiente Livre.
  • Pós-Graduado em Software Livre pela Universidade Federal do Paraná (UFPR).
  • Palestrante em congressos de tecnologias livres nacionais e internacionais (Campus Party, FISL, SOLISC, LATINOWARE, CONISLI, FLISOL, Joomla Day, Pentaho Day).
  • Colaborador e Organizador do Pentaho Day Brasil ( 2013 -2014).
  • Já Ministrou treinamentos de softwares para empresas como Banco do Brasil, Caixa Econômica, SERPRO, Volvo do Brasil, Petrobras, Correios, Ministérios das Comunicações, M Dias Branco, GVT, CELEPAR, ICI, Prefeitura de Fortaleza.

Leia mais sobre profissionais Hadoop.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos  e cursos em Hadoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos personalizados. solicite proposta comercial.

A marca Apache Hadoop é uma marca registrada pelos seus respectivos proprietários.






 
Copyright © 2017 Ambiente Livre Tecnologia - Soluções em Software Livre. Todos os direitos reservados.
Joomla! é um Software Livre com licença GNU/GPL v2.0.