Hadoop Fundamental

Treinamento Analise de Dados com Apache Hive, Impala e Pig

Sobre o treinamento

O treinamento é voltado para analistas de dados que querem acessar, manipular, transformar e analisar conjuntos de dados complexos no ecossistemas de Big Data como Hadoop usando as ferramentas Apache Hive, Apache Impala e Apache Pig. O curso foca no uso das ferramentas, suas funcionalidades e características, e não na instalação da infraestrutura que é apresentado um overview, todo ambiente será entregue em VMs previamente instalada em GNU-Linux/Debian e versões Apache ou Cloudera do Hadoop HDFS, Spark, Hive, Impala e Pig. Nosso conteúdo programático que foi construído para formação de especialistas em analise de dados com Hive, Impala e Hive, O mesmo mescla conhecimentos conceituais  de analise e ciência de dados, conhecimentos de negócio, assim como integração e programação.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual do Ecossistema Hadoop.

  • O que é Big Data?
  • Os 4 V's principais do Big Data.
  • Os Profissionais Cientista de Dados (Data Scientist) e Engenheiro de Dados (Data Engineer).
  • Data Lake.
  • IoT - Internet das Coisa e Big Data.
  • Principais Ferramentas de Big Data.
  • Licenciamento (Free Software X Open Source).

Introdução ao Hive, Impala e Pig.

  • Apache Hive.
  • Apache Impala.
  • Apache Pig.
  • Schema e Datastore.
  • Arquitetura.
  • Comparando Hive X Impala X Pig.
  • Hive X Presto.
  • Comparação do Hive,Impala e banco de dados tradicionais.
  • Empresas usando Hive, Impala e Pig no Brasil e no Mundo.
  • Casos de uso do Hive, Impala e Pig.
  • Comunidades Hive, Impala e Pig.
  • Versões do Hive, Impala e Pig.

Overview de instalação do Hive, Impala e Pig.

  • Pré-requisitos de instalação.
  • variáveis de ambiente.
  • Principais arquivos de configuração.

Analisando Dados com Apache Hive e Apache Impala.

  • Banco de Dados e Tabelas.
  • Tipos de dados.
  • HCatalog.
  • Hive QL.
  • Hive e Impala Query Language Syntax.
  • Usando o HUE para executar Querys.
  • Beeline e Hive Shell.
  • Impala Shell.
  • Impala Metadata Caching.
  • Operadores.
  • Funções escalares.
  • Funções de Agregação.
  • Union e Join.
  • Trabalhando com NULL.
  • Alias.
  • Filtros, Ordenações e Limites de Resultados.
  • Expressões regulares.
  • Analise de Texto.

Gerenciamento de Dados.

  • Datatorage.
  • Criando tabelas e bancos de dados.
  • Carregando dados.
  • Alterando tabelas e bancos de dados.
  • Criando e usando Views.
  • Armazenando resultados de Consultas.

Formato de Dados.

  • Os principais formatos de dados.
  • Apache Avro.
  • Apache Parquet.
  • Apache ORC.
  • Escolhendo o formato de dados ideal.

Particionamento.

  • Introdução a Particionamento.
  • Alta performance.
  • Particionamento de tabelas.
  • Carregando dados em tabelas particionadas.

Otimização do Apache Hive e Apache Impala.

  • Query Performance.
  • Bucketing.
  • Hive com Spark.
  • Impala Performance.

Extendendo o Hive e o Impala.

  • UDFs.
  • SerDes.

Melhorias e Futuro.

  • Hive Mall.
  • Hive LLAP.
  • TEZ.

Analisando dados com Pig

  • Tipo de Dados.
  • Pig e MapReduce.
  • Componentes.
  • Modos de Execução.
  • PigLatin.
  • Scripts Pig.
  • Executando scripts pig.
  • Integrando Pig e Hive.
  • Integrando Pig e Impala.

Carga Horária.

  • 32 Horas.

Público Alvo.

  • Analistas de Dados.
  • Engenheiros de Dados.
  • DBAs
  • Desenvolvedores.
  • Cientistas de Dados.

Pré-requisitos.

  • Conhecimento básico em algum sistema operacional (Windows, Linux ou MAC)
  • Conhecimento básico de banco de dado e SQL.
  • Conhecimento básico de programação (Scripts SQL).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware e Software.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Hive, Impala e Pig e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • O treinamento apresenta uma empresa fictícia onde será implantado as ferramentas de analise  e todas as fases da implantação para analise usando Hive, Impala e Pig.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Hive, Impala e Pig e cursos Hive, Impala e Pig. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

Powered by BreezingForms


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Zeppelin

Sobre o Treinamento / Curso

O treinamento fundamental em Apache Zeppelin é voltado para Data Scientists (Cientistas de dados) que pretendem conhecer o potencial que uma ferramenta de Notebook nas atividades de um cientista de dados, proporcionando conhecimentos para uso no dia dia de trabalho com dados em ambientes de Big Data, Machine Learning, Inteligência Artificial e Data Science na exploração e analise dos dados.

Nosso Expertise com o Apache Zeppelin.

Profissionais com 4 anos de experiência com Zeppelin.

5 Alunos formados em treinamentos Zeppelin.

Modalidades de Treinamento e Valores

  • EAD - Cadastre-se na Plataforma de EAD, pague com cartão de crédito via Paypal e tenha acesso instantâneo a todos vídeo aulas, slides, exercícios e softwares (pode assistir em seu computador ou celular). De R$ 270,00  Promocionalmente em lançamento por R$ 90,00.
    Gostaria de pagar de outra forma (Faturado, Boleto, Nota de Empenho, etc)? Solicite contato comercial.
  • Remoto ao Vivo - Aulas por salas virtuais ao vivo com nossos instrutores(Hangout, Skype, etc). Solicite proposta comercial.
  • Presencial - Nosso instrutor vai até você e ministra junto a sua equipe. Solicite proposta comercial.

Conteúdo Programático

Introdução.

  • Introdução ao Apache Zeppelin.
  • O que é um interpreter.
  • Integração com Apache Spark.
  • Visualização de dados.
  • Pivot.
  • Formulários dinâmicos.
  • Notes e parágrafos.

Interpreters.

  • Markdown Interpreter.
  • JDBC Interpreter.
  • Hive Interpreter.
  • Shell Interpreter.
  • Spark Interpreter.

Instalando o Ambiente.

  • Adquirindo VM da Hortonworks - HDP.
  • Instalando a VM da Hortonworks - HDP.
  • Instalando uma VM Hortonworks Sandbox na Cloud Microsoft Azure.

Criando Notes com Apache Hive.

  • Criando Notes com o interpreter JDBC/Hive.
  • Utilizando SQL Like do Hive.
  • Criando gráficos.
  • Configurando gráficos.
  • Importando e exportando Notes.

Criando Notes com Shell Script.

  • Criando Notes com o interpreter Shell.
  • Manipulando e movendo arquivos com shell.
  • Manipulando o HDFS com interpreter shell.

Criando Notes com Apache Spark e Angular.

  • Criando Notes com o interpreter Spark.
  • Utilizando o interpreter Spark 2.
  • Usando o interpreter Angular para apoio de documentação.
  • Manipulando Dataframes com métodos Spark.
  • Visualizando dados com o interpreter Spark SQL.

Configurando Interpreters.

  • Configurando um novo Interpreter JDBC (PostgreSQL).
  • Utilizando o novo Interpreter para acessar o PostgreSQL.

Autenticação e Segurança.

  • Controlando acessos com Apache Shiro.

Carga Horária:

  • 3 Horas.

Pré-Requisitos:

  • Noções de Big Data ou Data Science ou Analytics.
  • Conhecimento básico em programação.
  • Conhecimento básico de manipulação de dados (SQL, DML, DDL)
  • Conhecimento básicos de redes. 

Requisitos:

Para aulas EAD ou transmissão ao Vivo.

  • Todos os participantes devem ter um computador para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.

Para aulas presenciais

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 16GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Obs. Pode ser utilizado a VM Hortonworks Data Platform (HDP) Sandbox da Microsoft Azure (https://azuremarketplace.microsoft.com/en-us/marketplace/apps/hortonworks.hortonworks-sandbox) que tem todos os requisitos, porém o tempo de uso e calculado pela Azure e cobrado de seus créditos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Zeppelin e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Vídeo aulas desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Zeppelin e cursos Apache Zeppelin. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Airflow

O treinamento Apache Airflow prepara profissionais para o mercado para automatizar seu fluxo de trabalho e orquestrar pipelines de dados. O Apache Airflow é uma plataforma de gerenciamento de fluxo de trabalho de código aberto. Tudo começou no Airbnb em outubro de 2014 como uma solução para gerenciar os fluxos de trabalho cada vez mais complexos da empresa. Empresas como Alibaba, Airbnb, Tesla, Square e Spotify tem usado o Apache Airflow em produção e obtendo excelentes resultados.

Calendário de turmas abertas

  1. Online Ao Vivo
  • Data: - -
  • Local:Online Ao Vivo
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Airflow para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático.

Conceitual Apache Airflow.

Instalação do Apache AirFlow.

Características

  • Conhecendo o CLI.
  • Conexões.
  • Instância Remota Airflow.
  • Bash/Zsh.
  • Exportando DAGs para Imagens.
  • Data Profiling.
  • Ad Hoc Query.
  • Scheduler.
  • Executor e Workers.
  • Web Server - Flask.
  • DAG Runs.
  • Plugins.
  • Segurança
  • Time zones.
  • Airflow.cfg.
  • Celety.

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python.
  • Básico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Tasks e Operator

  • BashOperator.
  • PythonOperator.
  • EmailOperator.
  • SimpleHttpOperator.
  • PostgresOperator.
  • JdbcOperator.
  • DockerOperator.
  • S3FileTransformOperator.
  • Providers.
  • Astronomer Registry.

Integrações

  • Azure: Microsoft Azure.
  • AWS: Amazon Web Services.
  • Databricks.
  • GCP: Google Cloud Platform.

Métricas

  • Setup.
  • Counters.
  • Gauges.
  • Timers.

Funcionalidades

Airflow na Cloud (AWS)

  • Multi-Cloud.
  • MWAA - Amazon Managed Workflows - AWS
  • Workers auto-scale.
  • Open Airflow UI.
  • Console do Amazon MWAA.
  • Gravando suas DAGs no S3.
  • Executando DAGs.
  • Visualização gráfica das DAGs.
  • Monitoramento usando CloudWatch.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem ter um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Airflow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.
  • Data: - -
  • Local:Online Ao Vivo
  • Contato
 

Estamos localizados em Curitiba e atendemos em todo Brasil com Treinamentos Apache Airflow e Cursos Apache Airflow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Drill - Fundamental

O treinamento fundamental em Apache Drill prepara profissionais para o mercado de analise e ciência de dados, usando um mecanismos de exploração de dados de grande volume com uma diversidade de fontes de dados, e uma abstração da complexidade de suas fontes de dados de origem. O Apache Drill fornece consulta SQL colunar, distribuída e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento tais como HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, etc. Sua saída de dados pode ser consumida por conectores JDBC, Linguagens de programação ou ainda ferramentas de Business Intelligence como Pentaho Business Intelligence e outras.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Drill para exploração de dados.

Público Alvo

Cientistas de dados, Analistas de Business Intelligence, DBAs, Engenheiro de dados, Desenvolvedores.

Conteúdo Programático.

Conceitual Apache Drill.

  • Introdução ao Apache Drill.
  • Introdução a Ciência de dados.
  • Introdução a Big Data.
  • Apache Drill no Ecossistema de Big Data.
  • A Apache Software Foundation.
  • Cases de Uso do Apache Apache Drill.
  • Empresas usando Apache Apache Drill.
  • Dremel/Google BigQuery X Drill.
  • Open Source X Free Software.

Instalação do Apache Drill.

  • Requisitos para instalação do Apache Drill.
  • Instalando o Apache Drill (Embeeded Mode).
  • Preparando o Cluster.
  • Instalando o Apache Drill (Distributed Mode).
  • Configurando o Apache Drill.
  • Configurando ZooKeeper.
  • Configurando o Storage.

Querys com Apache Drill.

  • Querys com dados delimitados.
  • Drill SQL Query Format.
  • Criando fonte de dados.
  • Definindo o ambiente de trabalho.
  • Acessando colunas em querys.
  • Cabeçalhos de Dados Delimitados.
  • Função Table.
  • Drill Data Types.
  • Trabalhando com formatos de datas.
  • Criando Views.
  • Analisando dados com Apache Drill.
  • Palavras reservadas.

Analise de Dados Complexos

  • Arrays e Maps.
  • Analisando logs com Drill.
  • Query com Nested Data.

Data Sources com Drill.

  • Múltiplos data Sources.
  • Base de dados Relacionais.
  • Query em Hadoop para Drill.
  • Query em HBase para Drill.
  • Streaming de Dados com Apache Drill e Kafka.
  • Query MongoDB com Drill.
  • Drill com Cloud Storage.

Conectando ao Apache Drill.

  • Conectando com JDBC.
  • Conectando com Python.
  • Conectando com R.
  • Conectando com Java.
  • Conectando com Ferramentas de BI.

Engenharia de dados com Apache Drill.

  • Schema-on-Read.
  • SQL Relational Model.
  • Data Source Inference.
  • File Type Inference.
  • Distributed File Scans.
  • JSON Objects.
  • Usando Drill com Parquet.

Funções do Apache Drill.

  • User-Defined Functions.
  • Drill com arquivos do Planilhas Eletrônicas (LibreOffice Calc, MS Excel, etc).
  • Geospatial Functions.
  • Networking Functions.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Drill e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Drill e cursos Apache Drill. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Instrutor

Leia mais...

Treinamento Apache ECharts

O treinamento em Apache ECharts tem foco em ensinar como usar e incorporar as bibliotecas de visualização dados em suas aplicações. O Apache ECharts é uma ferramenta de visualização JavaScript de código aberto, que pode ser executada fluentemente em desktop, Apps Web e dispositivos móveis. É compatível com a maioria dos navegadores da Web modernos. O ECharts depende do ZRender, um mecanismo de renderização gráfica, para criar gráficos intuitivos, interativos e altamente personalizáveis.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

Apache ECharts.

  • Arquitetura do ECharts.
  • Componentes do ECharts.
  • WebSocket.
  • jsDelivr.
  • ZRender.

Características.

  • Tipos de Gráficos.
  • Formato de dados.
  • Grande volumes.
  • Otimização para mobile.
  • Multirenderização.
  • Multiplataforma.
  • Data Exploration In-Depth.
  • Multi-Dimensional.
  • Rich Visual Coding.
  • Dynamic Data.
  • Efeitos Especiais.

Visualização 3D.

  • Efeitos 3D.
  • WebGL
  • ECharts GL

Trabalhando com ECharts.

  • Importando ECharts.
  • Incluindo gráficos em HTML.
  • Plotando Gráficos.
  • Chart Container.
  • Style.
  • Dataset.
  • Data Transform.
  • Axis.
  • Visual Mapping.
  • Legenda.
  • Eventos.
  • Ações.
  • Commons Charts.
  • Cross Plataform.
  • Data.
  • Label.
  • Animação.
  • Interação.
  • Canvas
  • SVG.
  • Canvas X SVG.

Acessibilidade.

  • W3C
  • Accessible Rich Internet Applications Suite (WAI-ARIA)

Recursos

  • Spreadsheet Data Converter.
  • Theme Builder.

API

Carga Horária.

  • 16 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento de Desenvolvimento Web (HTML, CSS)
  • Conhecimento básico em linguagem Javascript.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 6GB.
  • Espaço em Disco: 10GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todo o software Apache ECharts e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache ECharts e  cursos Apache ECharts . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Log in