Big Data/Data Science

Treinamento Pentaho Data Integration - Kettle - ETL Open Source

Sobre o Treinamento

O treinamento é recomendado a profissionais que busca maximizar seus conhecimentos em processos de ETL (do inglês Extract, Transform e Load). O Pentaho Data Integration (também conhecido por seu codinome Kettle) é uma poderosa ferramentas para transformações de dados (ETL), com o PDI (Pentaho Data Integration) você pode fazer tarefas como migração de dados, transformação de dados, conversões de sistemas ou carga de bancos de dados, além de tarefas avançadas como transferência de arquivos, envios de e-mails, integração com webservices (SOAP ou REST) e programações de scripts com schedules.

Todo o treinamento utiliza a versão Community Edition e pode ser interpretado como uma transferência de tecnologia para os participantes do curso.

Calendário de turmas abertas

  1. Online Ao Vivo
  2. Rio de Janeiro
  3. Florianópolis
  4. Fortaleza
  • Data: - -
  • Local:Hangout Online Ao Vivo
  • Contato
  • Data: - -
  • Local: EDX Coworking - Av. Rio Branco, 124 - 12º. andar - Centro, Rio de Janeiro
  • Inscreva-se
  • Data: - -
  • Local: Centro de Inovação ACATE
  • Inscreva-se
  • Data: - -
  • Local: Fortaleza Business Center - Aldeota
  • Inscreva-se
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Pentaho Data Integration (Kettle) para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático:

Conceituais:

  • Introdução a Business Intelligence.
  • Introdução a Datawarehouse.
  • O que é ETL ?  (Extração , Transformação e Carga).
  • Histórico do Pentaho Data Integration (Kettle).
  • A Plataforma Pentaho Business Intelligence e Business Analitycs.
  • Diferenças de versão Pentaho Community Edition X Pentaho Enterprise Edition X Apache Hop.

Instalação - Pentaho Data Integration

  • Instalação do Pentaho Data Integration (Linux,Windows e MacOS).
  • Ambiente Server (Produção e Desenvolvimento ).

PDI - Pentaho Data Integration - Fundamentos

  • Componentes do Pentaho Data Integration (Kettle).
  • Spoon.
  • Pan.
  • kitchen.
  • Steps e Hops.
  • Transformação de dados.
  • Transformando dados em bases de dados Dimensionais (OLAP).
  • Populando tabelas (Dimensões e Fatos).
  • Integração entre Sistemas Transacionais.
  • Trabalhando com Merge de dados.
  • Trabalhando com constantes.
  • Explorando componentes.
  • Enviando e-mails.
  • Trabalhando com Jobs.

PDI – Automatizando Jobs e Transformações

  • Automatizando Jobs e Transformações via agendador (Schedulers no Linux e Windows).
  • Passando Parâmetros via linha de comando.
  • Passagem de parâmetro entre transformações e Jobs.
  • Trabalhando com Logs.

Trabalhando com Planilhas e Arquivos Texto

  • Transformando Planinhas em bases de dados SQL.
  • Transformando Base de Dados SQL em Planinhas.
  • Transformando arquivos texto em bases de dados SQL.
  • Transformando Base de dados SQL em arquivos Texto (posicional ou delimitado).

Steps Complementares e Avançados

  • Steps de Input (Get System info ,get File Names, OLAP Input ,Email messages input).
  • Steps de Transformação ( Row denormaliser , Row flattener ,Row Normaliser ,Split field to Rows, Split Fields).
  • Steps Utility (Clone Row , If field value is null, Run SSH commands).
  • Steps Lookup (Call DB procedure, Check if a column exists, check if file is locked, Database Join, Database lookup, File Exists).
  • Steps Joins ( Join Rows ( cartesian product ), Merge rows (diff), Sorted Merge , XML Join).
  • Steps Experimentais (Script Javascript , Script Python).
  • Steps Jobs – Utility (ping a Host, Truncate tables).
  • Steps Jobs – Mail ( Get mails POP3/IMAP).
  • Steps File management ( Copy Files, create file, create a folder, file comparate, delete files, delete folters, Zip file).
  • Steps Condition ( Check DB connection, Check webservice availability).
  • Steps Scripting (Javascript, Shell, SQL).
  • Steps XML (DTD Validation).
  • Steps File Transfer (FTP delete, Get a file with FTP, Get a file with SFTP, Upload files to FTPS, SSH2 Get, SSH2 Put).

PDI - WebServices e HTTP

  • Acesso a WebServices com Web services lookup (SOAP).
  • Acesso a WebServices REST com step Rest Client.
  • Gerando JSON para envio por REST com os steps JSON Output e JavaScript.
  • Chamadas HTTP por URL com step HTTP Client.
  • Chamadas submit via Post/HTTP com o step HTTP Post.

Carte – Execução remota

  • Conceitos do Carte.
  • Modos de Execução do Pentaho Data Integration.
  • Executando Transformações e Jobs remotamente.
  • Monitorando execuções remotas.
  • Master e Slaves com Carte.
  • Conceitual Dynamic Cluster.
  • Introdução a Data Staging

Pré-Requisitos

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Carga Horária

  • 16 Horas de Duração

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pela Hitachi Vantara.

  • Data: - -
  • Local: Hangout Ao Vivo
  • Contato
 

Inscrições, Informações e Valores

Powered by BreezingForms

Instrutor

Leia mais...

Treinamento Apache Spark com Python para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark com Python para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python
  • Basico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Programando em Python e Jython

  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If, While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Programação Funcional em Python

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

 

 

Instrutor

Leia mais...

Treinamento Apache Spark com Scala para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Scala

  • O que é Scala?
  • Apresentando Scala.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive -  Interactive Scala.
  • Escrevendo scripts Scala - Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala Para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Scala e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

 

 

Instrutor

Leia mais...

Treinamento Apache Hadoop - Big Data Open Source - Fundamental

 

Sobre o Treinamento

O treinamento fundamental em Apache Hadoop prepara profissionais para o mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.


Calendário de turmas abertas

  1. Curitiba
  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato
next
prev

Conteúdo Programático

Conceitual Big Data

  • O que é Big Data?
  • Os 4 V's principais do Big Data.
  • O Profissional Cientista de Dados / Data Scientist.
  • Data Lake.
  • IoT - Internet das Coisa e Big Data.
  • Ferramentas de Big Data.
  • Software Livre X Open Source.
  • GPL X BSD/Apache.

Conceitual Apache Hadoop

  • Visão geral sobre Hadoop
  • Características do Hadoop
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop
  • Quem usa o Hadoop
  • Cases do uso Hadoop
  • Uso de Hadware comum.
  • Distribuições do Hadoop

Instalação do Apache Hadoop

  • Requisitos de Instalação
  • Adquirindo os pacotes de Instalação
  • Modo de Instalação ( SingleCluster, Distribuid Mode )
  • Configuração do Ambiente de Rede
  • Configurando Yarn.
  • Criando diretórios físicos para o Filesystem
  • Formatação do FileSystem
  • Inicializando Serviços
  • Iniciando o cluster com seus nós
  • Testando Processos ativos

HDFS

  • Conceitual HDFS.
  • HDFS - Hadoop FileSystem.
  • HDFS - MapReduce Data Flow.
  • HDFS - Arquitetura.
  • Comandos de manipulação do FileSystem.
  • Copiando arquivos para o FileSystem.
  • Listando arquivos no HDFS.
  • Criando e Removendo Diretórios.
  • Interface Web do HDFS.

MapReduce

  • Conceitual Map Reduce.
  • MapReduce X Hadoop.
  • MapReduce - Função Map.
  • MapReduce - Função Reduce.
  • Fluxo de Trabalho.
  • Executando um MapReduce.
  • MapReduce no cluster.
  • Configurando a IDE Eclipse para MapReduce.
  • Criando um novo MapReduce.

CDH - Cloudera Hadoop

  • Usando a Distribuição Cloudera.
  • Componentes do CDH.
  • Cloudera Hadoop X Apache Hadoop.
  • Interface de gerenciamento Web (HUE).

Introdução a outras ferramentas de trabalho

  • Hortonworks.
  • Apache Mahout.
  • Hbase - Banco de dados distribuído orientado a coluna.
  • Pig - Plataforma de alto nível para a criação de programas MapReduce.
  • Hive - uma infraestrutura de data warehouse sobre o Hadoop.
  • Apache Cassandra - Banco de dados distribuído altamente escalável.
  • Apache Sqoop.
  • Pentaho Data Integration e Hadoop.

 

Carga Horária:

  • 24 Horas.

 

Pré-Requisitos:

  • Conhecimento básico em programação Java.
  • Noções de Big Data.
  • Conhecimento de banco de dados e SQL
  • Conhecimento básico de Linux

 

Próxima turma prevista, veja também acima no calendário outras cidades.

  • Data: - -
  • Local: Sede da Ambiente Livre
  • Contato
 

Instrutor

Leia mais...

Treinamento em Scylla - Fundamental

O treinamento fundamental em Scylla Database NoSQL prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, interação programática e atividades práticas.


Conteúdo Programático.

Conceitual Scylla.

  • O que é Big Data?
  • Visão geral sobre Scylla.
  • Características Gerais do Scylla.
  • Ecossistema de Big Data e Scylla.
  • Scylla X Outros NoSQL.
  • Apache Cassandra X DataStax X Scylla.
  • Cases do uso de Scylla.

Características do Scylla.

  • Escalabilidade Linear.
  • Alta disponibilidade.
  • Alto desempenho.
  • NoSQL X SQL.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.
  • Versões do Scylla.

Instalação do Scylla

  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um cluster Scylla.
  • Iniciando o cluster com seus nós.
  • Introdução ao nodetools.

SDM e CQL (Scylla Data Model e Cassandra Query Language )

  • A linguagem CQL.
  • Flexibilidade do CQL.
  • Tables.
  • Column Family.
  • Row Key.
  • Columns, Columns name e Columns Values.
  • KeySpace.
  • Timestamps.
  • Partition Key Simples e Composta e Indexação.
  • Insert.
  • Select.
  • Consultas indexadas.
  • Batch Statements.

Assuntos Complementares.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Suporte a MapReduce no Hadoop.
  • Apache Spark e Scylla.
  • Backups.
  • Certificações em Scylla.

 

Carga Horária:

  • 24 Horas de duração.

 

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de programação.
  • Conhecimento Básico em modelo de dados, banco de dados e SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para OnLine ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Scylla e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

 

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Scylla e cursos Scylla. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]

Instrutor

Leia mais...

Treinamento em Apache Cassandra - Fundamental

Turma OnLine/Ao Vivo

  • Data: - -
  • Local: Online Ao Vivo via Google Meet
  • Inscreva-se
 

O treinamento fundamental em Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, interação programática e atividades práticas.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • O que é Big Data?
  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Apache Cassandra X DataStax Enterprise X ScyllaDB.
  • Cases do uso de Cassandra.

Características do Apache Cassandra.

  • Escalabilidade Linear.
  • Alta disponibilidade.
  • Alto desempenho.
  • NoSQL X SQL.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.
  • Versões do Cassandra.
  • Introdução ao DevCenter.

Instalação do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Introdução ao nodetools.

CDM e CQL ( Cassandra Data Model e Cassandra Query Language )

  • A linguagem CQL.
  • Flexibilidade do CQL.
  • Tables.
  • Column Family.
  • Row Key.
  • Columns, Columns name e Columns Values.
  •  KeySpace.
  • Timestamps.
  • Partition Key Simples e Composta e Indexação.
  • Insert.
  • Select.
  • Consultas indexadas.
  • Batch Statements.

Assuntos Complementares.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Suporte a MapReduce no Hadoop.
  • Apache Spark e Cassandra.
  • Backups.
  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas de duração.

 

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de programação.
  • Conhecimento Básico em modelo de dados, banco de dados e SQL.

 

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para OnLine ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

 

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

 

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.
  • Assista um trecho da aula que foi ministrada Ao Vivo do Curso Apache Cassandra Fundamental abaixo:

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Próxima Turma

    • Data: - -
    • Local: Online Ao Vivo via Google Meet.

 

Inscrições, Informações e Valores.

[No form id or name provided!]

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Administração em Apache Cassandra

O treinamento Administração do Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implantar e administrar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, configuração, tunning todas realizadas com atividades práticas e exemplos reais de utilização.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Distribuições Cassandra.
  • DataStax X Apache Cassandra X ScyllaDB.
  • Cases do uso de Cassandra.
  • Escalabilidade Linear.
  • Alta disponibilidade e Alto desempenho.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.

Planejamento de Hardware.

  • Seleção de hardware.
  • Virtual machine X Hardware Físico.
  • Memória.
  • Processadores.
  • Discos e Storage.
  • Storage X Disco Físico.
  • Limites e Recomendações.

Instalação e Configuração do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um Cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Diretórios de dados.
  • Configurando os Nós e Clusters do Cassandra Utilizando o CCM.

Administração do Cluster Cassandra

  • Executando e Parando a Instância Cassandra
  • Administrado o cluster com o NodeTool.
  • Analisando saúde do Cluster.
  • Analisando performance com NodeTool
  • Comunicação dos Nodes Cassandra.
  • Gravando e lendo dados no mecanismo de armazenamento.
  • Escolhendo e implementando estratégias de compactação.
  • Compactação Cassandra.
  • Size Tiered Compaction.
  • Time Window Compaction.
  • Práticas recomendadas do Cassandra (compaction, garbage collection)
  • Criando uma instância do Cassandra de teste com pouco espaço na memória.
  • Reparo Anti-entropy node
  • Reparo sequencial vs paralelo.
  • Nodesync.

Manutenção do Cluster Cassandra

  • Adicionando e removendo novos nodes.
  • Substituindo um node.

Solução de problemas (Troubleshooting)

  • Ferramentas e dicas para solução de problemas (Troubleshooting).
  • Diretórios de Logs.
  • Analise de Logs.
  • JVM Garbage e Collection Logging.

Administração de tabelas clusterizadas.

  • Quorum e consistency levels.
  • Sstables, memtables, commit log.
  • Replicação.
  • Sstablesplit

Backups e Restore.

  • Arquitetura para backups.
  • Planejamento de backups.
  • Ferramentas de apoio para Backup.
  • Restore.
  • Snapshots.
  • Sstabledump.
  • Sstableloader.

Tunning.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Consistency Tuning.
  • Benchmarks.
  • Configurações de JVM.
  • Kernel Tunning.

Processamento distribuído.

Assuntos Complementares

  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas.
  • 100% Presencial

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux,
  • Conhecimento básico de programação
  • Conhecimento Básico em modelo de dados, Banco de dados e SQL e NoSQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Consultoria em Big Data e Data Science

Administrar os dados de sua empresa com metodologias, técnicas e ferramentas ideais pode colocar sua empresa em outro patamar. Em busca da produtividade dos serviços e produtos atuais, assim como inovação para criação de novos serviços e novos produtos. O Big Data é uma abordagem para armazenamento de um grande volume de dados de tipos variados, para que possam ser processados com alta velocidade mesmo com alto volume. O Data Science ou Ciência dos Dados é a ciência que busca encontrar insights relevantes e úteis para seus negócios. 

Leia mais...