Hacking Data Driven Program
Programa de Capacitação e Desenvolvimento para times de profissionais de dados.
Este programa foi elaborado para acelerar o processo de desenvolvimento de time de dados e atender a profissionais como Data Scientists, Data Engineers, Analytics Engineer e Data Analyst assim como dar suporte para times de infraestrutura ou DevOps de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.
Trilha - DevOps para Big Data.
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.
Automação e Orquestração de Ambientes
- Treinamento Python para DevOps – 32 Horas.
- Treinamento Docker – Fundamental – 24 Horas.
- Treinamento Kubernetes – Fundamental – 32 Horas.
Armazenamento de Objetos para Data Lakes
- Treinamento Minio – Fundamental – 32 Horas.
Pré-requisitos da trilha:
- Conhecimento básico em redes.
- Conhecimento básico de GNU/Linux.
- Conhecimento básico de programação/scripts.
Trilha - Data Engineer.
Esta trilha e voltada para profissionais responsáveis por manter e organizar toda a arquitetura para dados do ambiente de Big Data.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.
Armazenamento e Processamento Distribuído
- Treinamento Apache Hadoop - Big Data Open Source – 32 Horas.
- Treinamento Apache Spark – Fundamental – 32 Horas.
Ingestão e Streaming
- Treinamento Apache Kafka – Fundamental – 32 Horas.
- Treinamento Apache Flink – Fundamental – 32 Horas.
- Treinamento Apache Flume – Fundamental – 16 Horas.
- Treinamento Real-Time Analytics com Apache Spark Streaming – Fundamental – 32 Horas.
Formatos de Armazenamento Colunar
- Treinamento Apache Parquet – Fundamental – 4 Horas.
- Treinamento Apache ORC – Fundamental – 8 Horas.
- Treinamento Apache Kudu – Fundamental – 24 Horas.
Data Lake Table Formats
- Treinamento Apache Iceberg – Fundamental – 24 Horas.
Data Orchestration & ETL Pipelines
- Treinamento Apache Hop - Fundamental – 24 Horas.
- Treinamento Apache NiFi – Fundamental – 24 Horas.
- Treinamento Apache AirFlow – Fundamental – 24 Horas.
Search Engines
- Treinamento Apache Solr - Fundamental – 32 Horas.
- Treinamento ElasticSearch – Fundamental – 32 Horas.
- Treinamento OpenSearch – Fundamental – 32 Horas.
NoSQL & Big Data Storage
- Treinamento Apache HBase – Fundamental – 32 Horas.
- Treinamento Apache Cassandra – Fundamental – 24 Horas.
- Treinamento Administração em Apache Cassandra – DBA – 24 Horas.
- Treinamento Scylla – Fundamental – 24 Horas.
NoSQL & Cache
- Treinamento Redis - Fundamental – 24 Horas.
Pré-requisitos da trilha:
- Conhecimento básico em redes.
- Conhecimento básico de GNU/Linux.
- Conhecimento em lógica de programação.
- Conhecimento em banco de dados e SQL.
Trilha - Data Analyst.
Esta trilha foca em profissionais que atuarão no tratamento, apresentação e análise dos dados, sem as complexidades de um Data Scientist, mas com todo potencial para análise quantitativa e estatística através de técnicas e ferramentas tradicionais como Business Intelligence, OLAP, metadados, reports e dashboards
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.
SQL Query Engines
- Treinamento Trino - Fundamental – 24 Horas.
- Treinamento PrestoDB - Fundamental – 24 Horas.
- Treinamento Apache Druid - Fundamental – 24 Horas.
- Treinamento Analise de Dados com Apache Hive, Impala e Pig - Fundamental – 32 Horas.
- Treinamento Apache Doris - Fundamental – 24 Horas.
- Treinamento Apache Drill - Fundamental – 24 Horas.
Data Visualization & BI
- Treinamento Apache Grafana - Fundamental – 16 Horas.
- Treinamento Apache Superset – Fundamental – 24 Horas.
- Treinamento Metabase - 16 Horas.
- Treinamento Apache ECharts - 16 Horas.
Data Exploration & Query Assistants
- Treinamento HUE - Hadoop User Experience – 8 Horas.
Pré-requisitos da trilha:
- Conhecimento em lógica de programação.
- Conhecimento em banco de dados e SQL.
Trilha - Data Scientist.
Esta trilha e voltada para profissionais que já tenham uma vivência com dados e vão evoluir agora no tratamento mais aprofundado usando técnicas de Inteligencia Artificial, Machine Learning e Deep Learning.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.
Machine Learning & Data Mining
- Treinamento IA, ML e Data Mining com Pentaho DM (WEKA) - Fundamental – 16 Horas.
- Treinamento Apache Mahout - Fundamental – 24 Horas.
Ambientes Interativos e Notebooks
- Treinamento Apache Zeppelin - 8 Horas.
Linguagens e Ferramentas de Análise Estatística
- Treinamento Análise de Dados com R - Fundamental – 32 Horas.
Deep Learning e Frameworks
- Treinamento Deep Learning com TensorFlow - Fundamental – 24 Horas.
Gerenciamento e Orquestração de Modelos de ML
- Treinamento mlFlow - 24 Horas.
- Treinamento Kubeflow – Fundamental – 24 Horas.
- Treinamento BentoML – Fundamental – 24 Horas.
Pré-requisitos da trilha:
- Conhecimento em lógica de programação.
- Conhecimento de alguma linguagem de programação.
- Conhecimento em banco de dados e SQL.
- Conhecimento básico de estatística.
Trilha - Analytics Engineer.
Esta trilha e para especialista em Data Analytics que queiram ampliar seus conhecimentos para nova área que está se formando voltada a engenharia analítica. Esta trilha é uma ligação entre a trilha de engenharia de dados e a trilha de análise de dados.
- Treinamento dbt - Analytics Engineering Workflow - Fundamental – 24 Horas.
Pré-requisitos da trilha:
- Conhecimento em lógica de programação.
- Conhecimento em banco de dados e SQL.
Trilha - Data Governance.
Esta trilha e para especialista em governança de dados e segurança de dados, capacita profissionais para definir, implementar e manter políticas de governança, segurança, catálogo e qualidade dos dados.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.
Catálogo de Dados e Metadados
- Treinamento Apache Atlas - Fundamental – 24 Horas.
- Treinamento OpenMetadata - Fundamental – 24 Horas.
Segurança e Governança de Acesso a Dados
- Treinamento Apache Ranger - Fundamental – 24 Horas.
Pré-requisitos da trilha:
- Conhecimento em lógica de programação.
- Conhecimento em banco de dados e SQL.