Treinamento Apache Hadoop - Big Data Open Source - Fundamental
- Publicado em Apache Hadoop
Sobre o Treinamento
O treinamento fundamental em Apache Hadoop prepara profissionais para o mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.
Calendário de turmas abertas
- Curitiba
next
prev
Conteúdo Programático
Conceitual Big Data
- O que é Big Data?
- Os 4 V's principais do Big Data.
- O Profissional Cientista de Dados / Data Scientist.
- Data Lake.
- IoT - Internet das Coisa e Big Data.
- Ferramentas de Big Data.
- Software Livre X Open Source.
- GPL X BSD/Apache.
Conceitual Apache Hadoop
- Visão geral sobre Hadoop
- Características do Hadoop
- Sistema distribuído de arquivos.
- Ecossistema Hadoop
- Quem usa o Hadoop
- Cases do uso Hadoop
- Uso de Hadware comum.
- Distribuições do Hadoop
Instalação do Apache Hadoop
- Requisitos de Instalação
- Adquirindo os pacotes de Instalação
- Modo de Instalação ( SingleCluster, Distribuid Mode )
- Configuração do Ambiente de Rede
- Configurando Yarn.
- Criando diretórios físicos para o Filesystem
- Formatação do FileSystem
- Inicializando Serviços
- Iniciando o cluster com seus nós
- Testando Processos ativos
HDFS
- Conceitual HDFS.
- HDFS - Hadoop FileSystem.
- HDFS - MapReduce Data Flow.
- HDFS - Arquitetura.
- Comandos de manipulação do FileSystem.
- Copiando arquivos para o FileSystem.
- Listando arquivos no HDFS.
- Criando e Removendo Diretórios.
- Interface Web do HDFS.
MapReduce
- Conceitual Map Reduce.
- MapReduce X Hadoop.
- MapReduce - Função Map.
- MapReduce - Função Reduce.
- Fluxo de Trabalho.
- Executando um MapReduce.
- MapReduce no cluster.
- Configurando a IDE Eclipse para MapReduce.
- Criando um novo MapReduce.
CDH - Cloudera Hadoop
- Usando a Distribuição Cloudera.
- Componentes do CDH.
- Cloudera Hadoop X Apache Hadoop.
- Interface de gerenciamento Web (HUE).
Introdução a outras ferramentas de trabalho
- Hortonworks.
- Apache Mahout.
- Hbase - Banco de dados distribuído orientado a coluna.
- Pig - Plataforma de alto nível para a criação de programas MapReduce.
- Hive - uma infraestrutura de data warehouse sobre o Hadoop.
- Apache Cassandra - Banco de dados distribuído altamente escalável.
- Apache Sqoop.
- Pentaho Data Integration e Hadoop.
Carga Horária:
- 24 Horas.
Pré-Requisitos:
- Conhecimento básico em programação Java.
- Noções de Big Data.
- Conhecimento de banco de dados e SQL
- Conhecimento básico de Linux
Próxima turma prevista, veja também acima no calendário outras cidades.
- Data:
28 Abril de 2020 -30 Abril de 2020 8:30 -17:30 - Local: Sede da Ambiente Livre
- Contato