dbt (data build tool)

Treinamento dbt - Analytics Engineering Workflow

O treinamento dbt (data build tool) é destinado a analista de dados, engenheiros analíticos e profissionais de times de dados que necessitam tratar o dado armazenados em data warehouses, estejam em cloud ou local, antes de demonstra-los nas camadas de data visualization. O dbt realiza todo o seu fluxo de trabalho de engenharia analítica.

A engenharia analítica é o trabalho de transformação de dados que ocorre entre o carregamento de dados em seu warehouse e sua análise. O dbt permite que qualquer pessoa familiarizada com o SQL possa construir esse fluxo de trabalho.

Neste curso de dbt vamos construir sua mentalidade de engenharia analítica e habilidades no dbt para que você possa avançar em seus trabalhos. Conheça nosso conteúdo programático que foi construído para formação analista de dados avançados.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual dbt.

  • Introdução ao Analise de Dados.
  • Introdução a Data warehouse.
  • Introdução a modelagem dimensional.
  • Histórico da modelagem de dados.
  • Star Schema, Snowflake, Data Vault.
  • ETL x ELT.
  • A função do Analytics Engineer.
  • O Software dbt (data build tool).
  • Software Livre x Open Source.
  • Licenciamento.
  • Histórico do dbt.
  • Empresas usando dbt no Mundo.
  • Empresas usando dbt no Brasil.
  • Comunidade dbt.
  • Versões.
  • Open Source X Enterprise.

Instalando o dbt

  • Requisitos do dbt.
  • Instalação do dbt.
  • Configuração do dbt.
  • Conectando com PostgreSQL.
  • Conectando com Redshift.
  • Conectando com BigQuery.

Fundamentos.

  • o Formato yaml.
  • A Linguagem Python.

Modelos no dbt.

  • dbt, Databases e controle de versão.
  • Conectando no warehouse.
  • Models.
  • Modularity.
  • Modularity e ref functions.
  • Model Naming Conventions.
  • Organização do projeto.

dbt Cloud.

  • dbt Cloud.
  • Carregando dados.
  • dbt Cloud IDE.

Testes em dbt.

  • Tests X Tests dbt.
  • Schema Tests.
  • Data Tests.

Documentação.

  • Importância da documentação.
  • doc blocks.
  • Gerando a documentação.

Sources.

  • O conceito de Sources.
  • Configurando um Source.
  • Documentando o Source.
  • Source freshness.

Deployment.

  • deployiment
  • scheduling dbt.
  • dbt job.

Jinja Primer e Macros.

  • O Conceito do Jinja.
  • Jinja Template Designer.
  • Jinja + SQL.
  • Aplicações Jinja.
  • Macros.
  • DRY Code.

Packages.

  • Packages.
  • Instalando Packages.
  • Packages com Models.

Materializations.

  • Materializations.
  • Tabelas , Views.
  • Ephemeral models.
  • Incremental Models.
  • Snapshots.

Analises e Seeds.

  • Analyses.
  • Seeds.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento básico de banco de dado.
  • Conhecimento básico de SQL.
  • Conhecimento básico de Programação (Scripts ou Macros ou funções em bancos de dados).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares dbt Open Source e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos dbt e cursos dbt. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores


Instrutor

Marcio Junior Vieira

  • 20 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

Log in