COMUNICADO - COVID-19: Atendimento normal - Clique e saiba mais...

Apache Zeppelin

Treinamento Apache Zeppelin

Sobre o Treinamento / Curso

O treinamento fundamental em Apache Zeppelin é voltado para Data Scientists (Cientistas de dados) que pretendem conhecer o potencial que uma ferramenta de Notebook nas atividades de um cientista de dados, proporcionando conhecimentos para uso no dia dia de trabalho com dados em ambientes de Big Data, Machine Learning, Inteligência Artificial e Data Science na exploração e analise dos dados.

Modalidades de Treinamento e Valores

  • EAD - Cadastre-se na Plataforma de EAD, pague com cartão de crédito via Paypal e tenha acesso instantâneo a todos vídeo aulas, slides, exercícios e softwares (pode assistir em seu computador ou celular). De R$ 270,00  Promocionalmente em lançamento por R$ 90,00.
    Gostaria de pagar de outra forma (Faturado, Boleto, Nota de Empenho, etc)? Solicite contato comercial.
  • Remoto ao Vivo - Aulas por salas virtuais ao vivo com nossos instrutores(Hangout, Skype, etc). Solicite proposta comercial.
  • Presencial - Nosso instrutor vai até você e ministra junto a sua equipe. Solicite proposta comercial.

Conteúdo Programático

Introdução.

  • Introdução ao Apache Zeppelin.
  • O que é um interpreter.
  • Integração com Apache Spark.
  • Visualização de dados.
  • Pivot.
  • Formulários dinâmicos.
  • Notes e parágrafos.

Interpreters.

  • Markdown Interpreter.
  • JDBC Interpreter.
  • Hive Interpreter.
  • Shell Interpreter.
  • Spark Interpreter.

Instalando o Ambiente.

  • Adquirindo VM da Hortonworks - HDP.
  • Instalando a VM da Hortonworks - HDP.
  • Instalando uma VM Hortonworks Sandbox na Cloud Microsoft Azure.

Criando Notes com Apache Hive.

  • Criando Notes com o interpreter JDBC/Hive.
  • Utilizando SQL Like do Hive.
  • Criando gráficos.
  • Configurando gráficos.
  • Importando e exportando Notes.

Criando Notes com Shell Script.

  • Criando Notes com o interpreter Shell.
  • Manipulando e movendo arquivos com shell.
  • Manipulando o HDFS com interpreter shell.

Criando Notes com Apache Spark e Angular.

  • Criando Notes com o interpreter Spark.
  • Utilizando o interpreter Spark 2.
  • Usando o interpreter Angular para apoio de documentação.
  • Manipulando Dataframes com métodos Spark.
  • Visualizando dados com o interpreter Spark SQL.

Configurando Interpreters.

  • Configurando um novo Interpreter JDBC (PostgreSQL).
  • Utilizando o novo Interpreter para acessar o PostgreSQL.

Autenticação e Segurança.

  • Controlando acessos com Apache Shiro.

Carga Horária:

  • 3 Horas.

Pré-Requisitos:

  • Noções de Big Data ou Data Science ou Analytics.
  • Conhecimento básico em programação.
  • Conhecimento básico de manipulação de dados (SQL, DML, DDL)
  • Conhecimento básicos de redes. 

Requisitos:

Para aulas EAD ou transmissão ao Vivo.

  • Todos os participantes devem ter um computador para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.

Para aulas presenciais

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 16GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Obs. Pode ser utilizado a VM Hortonworks Data Platform (HDP) Sandbox da Microsoft Azure (https://azuremarketplace.microsoft.com/en-us/marketplace/apps/hortonworks.hortonworks-sandbox) que tem todos os requisitos, porém o tempo de uso e calculado pela Azure e cobrado de seus créditos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Zeppelin e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Vídeo aulas desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Zeppelin e cursos Apache Zeppelin. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Marcio Junior Vieira

  • 19 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho).
  • Membro da The Order Of de Bee (membros da comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

Log in