Hadoop Fundamental

Treinamento em Apache Cassandra - Fundamental

O treinamento fundamental em Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, interação programática e atividades práticas.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • O que é Big Data?
  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Apache Cassandra X DataStax Enterprise X ScyllaDB.
  • Cases do uso de Cassandra.

Características do Apache Cassandra.

  • Escalabilidade Linear.
  • Alta disponibilidade.
  • Alto desempenho.
  • NoSQL X SQL.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.
  • Versões do Cassandra.
  • Introdução ao DevCenter.

Instalação do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Introdução ao nodetools.

CDM e CQL ( Cassandra Data Model e Cassandra Query Language )

  • A linguagem CQL.
  • Flexibilidade do CQL.
  • Tables.
  • Column Family.
  • Row Key.
  • Columns, Columns name e Columns Values.
  •  KeySpace.
  • Timestamps.
  • Partition Key Simples e Composta e Indexação.
  • Insert.
  • Select.
  • Consultas indexadas.
  • Batch Statements.

Assuntos Complementares.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Suporte a MapReduce no Hadoop.
  • Apache Spark e Cassandra.
  • Backups.
  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas de duração.

 

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de programação.
  • Conhecimento Básico em modelo de dados, banco de dados e SQL.

 

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para OnLine ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

 

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

 

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.
  • Assista um trecho da aula que foi ministrada Ao Vivo do Curso Apache Cassandra Fundamental abaixo:

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

Powered by BreezingForms


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Administração em Apache Cassandra

O treinamento Administração do Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implantar e administrar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, configuração, tunning todas realizadas com atividades práticas e exemplos reais de utilização.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Distribuições Cassandra.
  • DataStax X Apache Cassandra X ScyllaDB.
  • Cases do uso de Cassandra.
  • Escalabilidade Linear.
  • Alta disponibilidade e Alto desempenho.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.

Planejamento de Hardware.

  • Seleção de hardware.
  • Virtual machine X Hardware Físico.
  • Memória.
  • Processadores.
  • Discos e Storage.
  • Storage X Disco Físico.
  • Limites e Recomendações.

Instalação e Configuração do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um Cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Diretórios de dados.
  • Configurando os Nós e Clusters do Cassandra Utilizando o CCM.

Administração do Cluster Cassandra

  • Executando e Parando a Instância Cassandra
  • Administrado o cluster com o NodeTool.
  • Analisando saúde do Cluster.
  • Analisando performance com NodeTool
  • Comunicação dos Nodes Cassandra.
  • Gravando e lendo dados no mecanismo de armazenamento.
  • Escolhendo e implementando estratégias de compactação.
  • Compactação Cassandra.
  • Size Tiered Compaction.
  • Time Window Compaction.
  • Práticas recomendadas do Cassandra (compaction, garbage collection)
  • Criando uma instância do Cassandra de teste com pouco espaço na memória.
  • Reparo Anti-entropy node
  • Reparo sequencial vs paralelo.
  • Nodesync.

Manutenção do Cluster Cassandra

  • Adicionando e removendo novos nodes.
  • Substituindo um node.

Solução de problemas (Troubleshooting)

  • Ferramentas e dicas para solução de problemas (Troubleshooting).
  • Diretórios de Logs.
  • Analise de Logs.
  • JVM Garbage e Collection Logging.

Administração de tabelas clusterizadas.

  • Quorum e consistency levels.
  • Sstables, memtables, commit log.
  • Replicação.
  • Sstablesplit

Backups e Restore.

  • Arquitetura para backups.
  • Planejamento de backups.
  • Ferramentas de apoio para Backup.
  • Restore.
  • Snapshots.
  • Sstabledump.
  • Sstableloader.

Tunning.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Consistency Tuning.
  • Benchmarks.
  • Configurações de JVM.
  • Kernel Tunning.

Processamento distribuído.

Assuntos Complementares

  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas.
  • 100% Presencial

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux,
  • Conhecimento básico de programação
  • Conhecimento Básico em modelo de dados, Banco de dados e SQL e NoSQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

 

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Apache Spark com Python para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark com Python para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python
  • Basico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Programando em Python e Jython

  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If, While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Programação Funcional em Python

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Spark com Scala para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.

Turmas Somente inCompany

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Scala

  • O que é Scala?
  • Apresentando Scala.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive -  Interactive Scala.
  • Escrevendo scripts Scala - Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala Para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Scala e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Streaming

  • Spark Streaming Transformations.
  • Streaming Windows Transformations.
  • Create Dataframes.
  • Save DataFrames.
  • Tables and DataFrames.
  • Event Stream Processing (ESP).
  • Complex Event Processing (CEP).

Apache Spark com SQL e Hadoop Hive.

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

 

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Hadoop - Big Data Open Source - Fundamental

 

Sobre o Treinamento

O treinamento fundamental em Apache Hadoop prepara profissionais para o mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.


Calendário de turmas abertas

  1. Curitiba
  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato
next
prev

Conteúdo Programático

Conceitual Big Data

  • O que é Big Data?
  • Os 4 V's principais do Big Data.
  • O Profissional Cientista de Dados / Data Scientist.
  • Data Lake.
  • IoT - Internet das Coisa e Big Data.
  • Ferramentas de Big Data.
  • Software Livre X Open Source.
  • GPL X BSD/Apache.

Conceitual Apache Hadoop

  • Visão geral sobre Hadoop
  • Características do Hadoop
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop
  • Quem usa o Hadoop
  • Cases do uso Hadoop
  • Uso de Hadware comum.
  • Distribuições do Hadoop

Instalação do Apache Hadoop

  • Requisitos de Instalação
  • Adquirindo os pacotes de Instalação
  • Modo de Instalação ( SingleCluster, Distribuid Mode )
  • Configuração do Ambiente de Rede
  • Configurando Yarn.
  • Criando diretórios físicos para o Filesystem
  • Formatação do FileSystem
  • Inicializando Serviços
  • Iniciando o cluster com seus nós
  • Testando Processos ativos

HDFS

  • Conceitual HDFS.
  • HDFS - Hadoop FileSystem.
  • HDFS - MapReduce Data Flow.
  • HDFS - Arquitetura.
  • Comandos de manipulação do FileSystem.
  • Copiando arquivos para o FileSystem.
  • Listando arquivos no HDFS.
  • Criando e Removendo Diretórios.
  • Interface Web do HDFS.

MapReduce

  • Conceitual Map Reduce.
  • MapReduce X Hadoop.
  • MapReduce - Função Map.
  • MapReduce - Função Reduce.
  • Fluxo de Trabalho.
  • Executando um MapReduce.
  • MapReduce no cluster.
  • Configurando a IDE Eclipse para MapReduce.
  • Criando um novo MapReduce.

CDH - Cloudera Hadoop

  • Usando a Distribuição Cloudera.
  • Componentes do CDH.
  • Cloudera Hadoop X Apache Hadoop.
  • Interface de gerenciamento Web (HUE).

Introdução a outras ferramentas de trabalho

  • Hortonworks.
  • Apache Mahout.
  • Hbase - Banco de dados distribuído orientado a coluna.
  • Pig - Plataforma de alto nível para a criação de programas MapReduce.
  • Hive - uma infraestrutura de data warehouse sobre o Hadoop.
  • Apache Cassandra - Banco de dados distribuído altamente escalável.
  • Apache Sqoop.
  • Pentaho Data Integration e Hadoop.

 

Carga Horária:

  • 24 Horas.

 

Pré-Requisitos:

  • Conhecimento básico em programação Java.
  • Noções de Big Data.
  • Conhecimento de banco de dados e SQL
  • Conhecimento básico de Linux

 

Próxima turma prevista, veja também acima no calendário outras cidades.

  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Nifi

Sobre o Treinamento

O treinamento Apache Nifi é recomendado a técnicos que já conheçam os conceitos e o básicos de Big Data e queiram ampliar seus conhecimento sobre DataFlow para gigantescos volumes de dados. A distribuição Hadoop da Apache será a utilizada como base deste treinamento, porém do NiFi poder ser instalado em qualquer distribuição (Cloudera, Hortonworks, Clouds, etc) com os mesmos conceitos aplicados.

O NiFi foi projetado para automatiza fluxo de dados entre sistemas de software, integração de dados de diversas origens com diversos tipos de destinos, usando bancos de dados tradicionais e de Big Data como Hadoop (HDFS), Hive, Cassandra e Streamings do Kafka, Apache Spark, entre outras fontes de dados. O Apache NiFi é um projeto de software da Apache Software Foundation e baseado no software "NiagaraFiles" desenvolvido pela NSA.

Calendário de turmas

  1. Ao Vivo Online
  • Data: - -
  • Local:Google Meet Online ao Vivo
  • Inscreva-se
next
prev

Objetivo

Ministrar os conceitos e técnicas de DataFlow com o Apache Nifi.

Público Alvo

O Treinamento Apache Nifi destina-se a profissionais desenvolvedores de ETL, arquitetos de sistemas,  desenvolvedores de sistemas, e engenheiros de dados e equipes de DevOps.

Dificuldade.

Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache NiFi 1.17 e foi modificado pela última vez em 18 de Novembro de 2022.

Conteúdo Programático:

Introdução ao Hadoop.

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.

Introdução ao Apache Nifi.

  • O projeto Apache NiFi.
  • Histórico do projeto Apache NiFi.
  • Versões do Apache NiFi.
  • Licenciamento (Free Software X Open Source).
  • Apache Software Foundation.
  • Patrocinadores da Apache Software Foundation.
  • Dados em repouso X dados em movimento.
  • Arquitetura do Apache Nifi.
  • Ecossistema NiFi.
  • Terminologias.
  • Apache NiFi UI.
  • Sqoop X Pentaho Data Integration X Apache Nifi X Talend X Apache Hop.

Instalação e configuração do Apache Nifi.

  • Requisitos de instalação.
  • Instalando o NiFi no modo Standalone.
  • Portas e protocolos de comunicação.
  • Principais propriedades.

DataFlow no Apache NiFi.

  • Conceituando DataFlow.
  • DataFlow Manager (DFM).
  • Processors.
  • Tipos de Processor.
  • Propriedade do Processor.
  • Fila de Dados.
  • Relacionamentos.
  • Conexões.
  • Scheduling.
  • Error Handling.
  • Labels.
  • Conditional Processors.
  • O arquivo flow.xml.gz.

DataFlow Templates.

  • Dataflow Templates.
  • Importando DataFlow templates.
  • Exportando DataFlow templates.

Principais Processor do Apache NiFi.

  • Processor Group.
  • Processor GetFiles.
  • Processor PutFiles.
  • Processor ConvertRecord.
  • Processor PutSQL.
  • Processor QueryDatabaseTableRecord.
  • Processor LogAttribute.
  • Processor AttributesToCSV.
  • Processor AttributesToJSON.
  • Processor GetFTP.
  • Processor GetHDFS.

NiFi Data Provenance.

  • Conceitos do Data Provenance.
  • NiFi FlowFile.
  • Provenance Events.
  • Event Type.
  • File Lineage.
  • Provenance Repository.

Apache NiFi Controller Services.

  • Conceituando Controller Services.
  • Services.
  • Tipos de Controller Services.
  • Grupos de Controller Services.
  • Configurando Controller Services.
  • AvroRecordSetWriter.

NiFi Expression Language.

  • Estrutura do NiFi Expression.
  • Expression Language Editor.
  • NiFi Expression Language Functions.
  • Data Types.
  • Boolean Logic.
  • Manipulação de Textos.
  • Encode/Decode Functions.
  • Searching.
  • Operações matemáticas
  • Manipulação de numéricos.
  • Manipulação de datas.

NiFi RecordPath.

  • Conceito do NiFi RecordPath.
  • Schemas do NiFi RecordPath.
  • Node Access.
  • Filter Predicates.
  • Filter Functions.
  • Conversão de Tipos.
  • Manipulando textos.
  • Formatando datas.
  • Encode/Decode Functions.

DataFlows na prática.

  • Lendo e Convertendo formatos de Arquivos (CSV para JSON).
  • Database Aggregating, Splitting and Transforming.
  • Extração de dados, logs, etc.
  • Trabalhando com dados via FTP e SSH.
  • Trabalhando com dados de Bases de Dados (NoSQL e SQL).
  • Trabalhando com dados do DataLake Hadoop - HDFS.
  • Conexões com Webservices (REST ou SOAP).

Apache NiFi Registry.

  • Conceitual do Nifi Registry.
  • Instalando o Nifi Registry.
  • Integrando NiFi ao NiFi. Registry.
  • Flow Registry.
  • Versionamento do Flow.
  • Controle de Acesso no Nifi Registry.

Administração do NiFi.

  • Autenticações de Usuário.
  • Controle de Políticas de Acesso.
  • Criptografia.

NiFi Rest API.

  • NiFi Rest API.
  • Autenticação.
  • Principais endpoints.
  • Alterando Data Flows por API.
  • Casos de utilização.

Ferramentas e Projetos acessórios.

  • Nifi Toolkit.
  • Apache miniFi e IOT.
  • Reporting Tasks.

Apache Zookeeper.

  • Apache Zookeeper.
  • Recursos.
  • Arquitetura.
  • Data Model.
  • Caso de uso.
  • Projetos usando Zookeeper.

Configurando e executando um cluster NiFi.

  • Cluster Integration.
  • Load Balancing/Redundancy.
  • Orquestração em massa de NiFi.
  • Zookeeper embutido no Apache NiFi.
  • Visão geral do Apache NiFi com Docker e Kubernetes.
  • Visão geral de Deploy em ambiente gerenciados de Cloud.

Monitoramento e Recovery.

  • Recuperando sem perda de dados.
  • Recuperação autônoma.

Otimizando o Apache NiFi.

  • Performance e Tunning.
  • Nifi Setup.
  • Práticas de atualização do Nifi em produção.

Desenvolvimento.

  • Componentes, eventos e padrões de processador.
  • Desenvolvendo um processador Apache Nifi personalizado usando JSON.

Melhores Praticas

  • Troubleshooting.
  • Teste e solução de problemas.

Pré-requisitos de conhecimento

  • Conhecimento básico Linux.
  • Conhecimento básico de redes (proxy, gateway,etc).

Requisitos dos alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 32 Horas de duração.

Modalidades do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão online/ao vivo do treinamento.
  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache NiFi e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Próxima Turma

  • Data: - -
  • Local: Google Meet Online ao Vivo
  • Inscreva-se
 

Inscrições, Informações e Valores

[No form id or name provided!]


Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache NiFi, e cursos sobre Apache NiFi. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutores

Marcio Junior Vieira

 

  • 20 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

 

Leia mais...

Treinamento Apache Mesos

Sobre o Treinamento

Este treinamento Apache Mesos é recomendado a técnicos que já conheçam os conceitos e o básicos da infraestrutura de Big Data e queiram ampliar seus conhecimento sobre sistemas distribuídos para ambiente de Big Data, principalmente para uso junto ao Apache Hadoop e Apache Spark.
O Apache Mesos (https://mesos.apache.org/) é uma plataforma que abstrai recursos computacionais de camada subjacentes, facilitando o desenvolvimento de sistemas distribuídos bastante escaláveis. Pode ser usada para prover uma camada de agendamento para o Docker ou atuar como uma camada de abstração para coisas como AWS. O Twitter a utilizou com grande sucesso para ajudar a escalonar sua infraestrutura, e ferramentas construídas a partir do Apache Mesos já começaram a aparecer, como o Chronos do Airbnb, um substituto do cron tolerante a falhas.

Calendário de turmas

Somente corporativos.

Objetivo

Ministrar os conceitos e técnicas de Sistemas Distribuídos no Mesos.

Público Alvo

O Treinamento Apache Mesos destina-se a profissionais de infraestrutura, arquitetos de sistemas,  engenheiros de dados e equipes de DevOps.

Dificuldade.

Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Mesos 1.11 e foi modificado pela última vez em 18 de Dezembro de 2022.

Conteúdo Programático:

Introdução ao Hadoop.

Introdução ao Apache Mesos.

  • Introdução ao Apache Mesos
  • O projeto Apache Mesos.
  • Histórico do projeto Apache Mesos.
  • Versões do Apache Mesos.
  • Licenciamento (Free Software X Open Source).
  • Apache Software Foundation.
  • Patrocinadores da Apache Software Foundation.
  • Sistemas distribuídos.
  • Arquitetura do Apache Mesos.
  • Apache Mesos X Kubernetes.
  • Principais empresas que usam Apache Mesos no Mundo.
  • Principais empresas que usam Apache Mesos no Brasil.

Instalação e configuração do Apache Mesos.

  • Requisitos de instalação.
  • Instalando o Apache Mesos.
  • Configurações de Building.
  • Building Apache Mesos.
  • Apache Mesos Master
  • Apache Mesos Agent.
  • Portas e protocolos de comunicação.
  • Principais propriedades.

Apache Zookeeper.

  • Apache Zookeeper.
  • Recursos.
  • Arquitetura.
  • Data Model.
  • Caso de uso.
  • Projetos usando Zookeeper.

Administração do Apache Mesos.

  • Agendamento e alocação de recursos.
  • Resource scheduling.
  • Resource allocation.
  • Resources e attributes.
  • Alta Performance - Master Setup.
  • Tolerância a falha - Agent Setup.
  • Mesosphere.
  • ZooKeeper connection.
  • Mesos - Master server.
  • Configurando o Marathon services.
  • Configurando por argumentos de  command-line.
  • Replicated Log.
  • Fault Tolerant Agent Setup
  • Framework Rate Limiting
  • Manutenção do Cluster Mesos.
  • Upgrades e Downgrades.
  • Logging.
  • Monitoring / Metrics
  • Debugging usando CLI.
  • Configurando Fetcher Cache.
  • Fault Domains.
  • Performance Profiling.
  • Memory Profiling.

Gerenciamento de Recursos.

  • Atributos e Recursos para descrever os agentes que compõem um cluster.
  • Usando Funções de Recursos.
  • Resource Role para fair sharing.
  • Resource Role Quota.
  • Reservations.
  • Shared Resources.
  • Oversubscription.

Segurança no Apache Mesos.

  • Autenticação.
  • Autorização.
  • SSL.
  • Secrets
  • Gerenciando secrets com Mesos.

Containerização.

  • Overview sobre contêineres.
  • Orquestração de contêineres.
  • Containerizer Internals.
  • Configurando o suporte de imagem do Docker para o contêiner Mesos.
  • Suporte para Linux e POSIX systems.
  • Docker Volume Support
  • Container Sandboxes.
  • Container Volumes.
  • Nested Container and Task Group (Pod).
  • Standalone Containers.

Redes.

  • Networking Overview.
  • Detalhes de Networking.
  • Container Network Interface (CNI).
  • Port Mapping Isolator.

Storage.

  • Multiple Disks.
  • Persistent Volume.
  • Suporte a  Container Storage Interface (CSI).

Scheduler e Executor Development.

  • Executando Workloads no Apache Mesos.
  • Framework Development.
  • Designing Highly Available Mesos Frameworks.
  • Reconciliation.
  • Task State.
  • Task Health Checking.
  • Scheduler HTTP API.
  • Executor HTTP API.

API.

  • HTTP Endpoints.
  • API Client Libraries.
  • API Versioning  HTTP API.
  • RecordIO.
  • Java API
  • Operator HTTP API.
  • Scheduler HTTP API.
  • Executor HTTP API.
  • Mesos Modules.
  • Allocation Module.

Pré-requisitos de conhecimento

  • Conhecimento básico Linux.
  • Conhecimento básico de redes (proxy, gateway,etc).

Requisitos dos alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB.
  • Espaço em Disco: 50GB.
  • Processador: i5 ou i7 com no mínimo 4 cores.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 24 Horas de duração.

Modalidades do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão online/ao vivo do treinamento.
  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Mesos e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Mesos, e cursos sobre Apache Mesos. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutores

Leia mais...

Treinamento Apache Flink com Scala

Sobre o Treinamento

O treinamento Apache Flink e voltado para profissionais de big data e ciência de dados qua atuam com administração de clusters com Apache Flink implantado mas  principalmente para desenvolvedores para que possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Flink, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Flink. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Flink com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Flink para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Apache Flink X Apache Spark.
  • Histórico do Apache Flink.
  • Casos de uso de Flink.
  • Empresas usando Flink no Mundo.
  • Empresas usando Flink no Brasil.

Introdução a Linguagem Scala

  • A Linguagem Scala.
  • Linguagens JVMs.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive - Interactive Scala.
  • Escrevendo scripts Scala.
  • Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala.

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Flink.

  • Visão geral da arquitetura Flink.
  • Instalando o Apache Flink.
  • Modos do Flink.
  • Standalone Cluster.
  • Multi-Node Flink Cluster.
  • Gerenciamento de memória.

Desenvolvendo com Apache Flink.

  • Invocando Scala REPL.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Scala REPL.
  • Realizando algumas operações básicas em arquivos em Scala REPL.
  • Paralelo Stream.

Flink DataStream API - Streaming.

  • Event Time.
  • Estado e Tolerância a falha.
  • Operadores.
  • Conectores.
  • Window SQL.

Flink DataSet API - Batch.

  • Transformações.
  • Interações.
  • Conectores.
  • Execução Local.
  • Execução em Cluster.
  • Zipping.
  • Compatibilidade com Hadoop.

Flink Table SQL API e Hive

  • Arquitetura Table SQL.
  • Data Type.
  • Table API.
  • SQL e SQL Client.
  • UDFs.
  • Data Sinks.
  • Catalogos.
  • Window Table SQL.
  • Integrando com Hive.

Recursos gerais

  • CEP.
  • Melhores práticas.

Apache Flink e Pentaho.

  • Overview Suite Pentaho.
  • Pentaho data Integration e AEL - Adaptative Execution Layer.
  • Data Visualization.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Flink e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Log in