Apache AirFlow

Marcio Junior Vieira

Marcio Junior Vieira

  • 24 anos de experiência em tecnologia da informação, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela UFG - Universidade de Goiás no CIAP - Centro de IA Aplicada às Políticas Públicas.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay, PgConf e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento OpenMetadata

Sobre o Treinamento

O OpenMetadata é uma plataforma open source de governança de dados moderna, voltada para integrar e centralizar metadados técnicos, operacionais, de qualidade e de negócios em ambientes analíticos e distribuídos. Este treinamento fundamental prepara profissionais para utilizar o OpenMetadata de forma prática e estratégica, apoiando iniciativas de catalogação de dados, rastreabilidade, controle de acesso, glossários e automação de pipelines de metadados.

O conteúdo programático foi desenvolvido para capacitar os participantes a implantar, configurar e operar o OpenMetadata em ecossistemas de dados reais, promovendo governança ativa, descoberta de dados, e colaboração entre engenheiros, analistas e áreas de negócio.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Como implantar e configurar o OpenMetadata.
  • Como estruturar um catálogo de dados funcional e colaborativo.
  • Como monitorar e rastrear a qualidade e a linhagem dos dados.
  • Como integrar com ferramentas modernas do stack de dados open source.
  • Boas práticas para governança de dados.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade: Alta.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Atlas 2.4.0. e foi modificado pela última vez em 2 de Março de 2025.

Conteúdo Programático.

Conceitual Apache Atlas.

  • Introdução à Governança de Dados.
  • O que é o OpenMetadata?
  • OpenMetadata no ecossistema DataLake,Lakewouse e Big Data.
  • A importância do OpenMetadata no ecossistema de dados moderno.
  • Comparativo: OpenMetadata X Apache Atlas X Collibra X Amundsen.

Instalação OpenMetadata.

Arquitetura do OpenMetadata.

  • Principais componentes.
  • Ingestion Framework.
  • Metadata Store.
  • UI do OpenMetadata.
  • Integrações Nativas com Trino, Airflow, Kafka, dbt, Great Expectations etc.

Conectores.

  • PostgreSQL e MySQL.
  • Data Lakes e Data Warehouse  (S3, BigQuery, Snowflake, etc.).
  • Ferramentas de ETL (Airflow, dbt, Spark, etc.).
  • Dashboards (Superset, Metabase).
  • Pipelines de Ingestão.
  • Agendamento das Ingestões.

Catálogo de Dados e Metadados Técnicos.

  • Cadastro e rastreabilidade de ativos de dados.
  • Descoberta de dados (Data Discovery).
  • Glossário de Negócios (Business Glossary)

Qualidade de Dados Integrada.

  • Regras de qualidade com Great Expectations.
  • Monitoramento de falhas e alertas.
  • Relatórios e dashboards de qualidade.

Linhagem de Dados (Data Lineage).

  • Geração automática de linhagem com Airflow, dbt e Spark.
  • Visualização gráfica do fluxo de dados.
  • Relações entre datasets, pipelines e dashboard

Segurança e Governança

  • Controle de acesso baseado em funções (RBAC),
  • Perfis de usuário e permissões por domínio.
  • Auditoria de ações e logs.

Integrações.

API do OpenMetadata

  • Estrutura da API REST.
  • Navegação pela Swagger UI.
  • Autenticação via token / JWT / API key.
  • Consultas e Leitura de Metadados.
  • Automatização de Cadastro e Atualização.
  • SDK Python.

Carga Horária:

  • 24 Horas de duração.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico no ecossistema de Big Data.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares OpenMetadata e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos OpenMetadata e Cursos OpenMetadata. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

Powered by BreezingForms


Instrutor

Leia mais...

Treinamento Operaton BPM Platform

Sobre o Treinamento

O treinamento fundamental em Operaton é voltado para analistas de negócios que pretendem mapear processos usando notação BPMN, CMMN ou DMN e desenvolvedores que pretendem conhecer o processo de implementação de workflows na ferramenta Operaton e integrar a suas aplicações. As integrações técnicas do treinamento serão expostas em linguagem Java mas podem ser desenvolvidos via SDK em PHP, Javascript ou C#, e analistas de negocio mesmo não sendo dominantes de programação entenderão as possibilidades de uso da solução como um motor de processos incorporado a qualquer software.

O objetivo deste treinamento de 3 dias é dar-lhe informações detalhadas sobre a automação de processos com o Operaton BPM e Java, no final desse treinamento você irá conhecer o básico da BPMN, compreender os conceitos técnicos essenciais do mecanismo BPM do Operaton e ser capaz de implementar aplicativos de processo por conta própria e saber como testá-los.

Dificuldade: Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Operaton Community Edition na versão 0.00, e foi modificado pela última vez em 21 de Março de 2025.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Introdução

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução ao CMMN 1.1.
  • O Projeto Operaton.
  • Activiti x Operaton x Bonita X Flowable.
  • Licenciamento (Free Software X Open Source).
  • Empresas usando Operaton no mundo.
  • Empresas usando Operaton no Brasil.
  • Versões do Operaton.
  • Comunidade Operaton no Brasil e no Mundo.
  • Livros, sites, documentação e referências complementares.

BPM e Automação de processos

  • Modelagem de processo com BPMN 2.0.
  • Principais Elementos da Notação BPMN.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.

Process Engine

  • Arquitetura do Operaton.
  • API (Java, REST, SOAP).
  • Dados de processo (Variáveis, XML, JSON) e Idioma de Expressão (JUEL, XPath).
  • Gestão de tarefas humanas.
  • Manipulação de erros.
  • Cenários de implantação.
  • Versionamento de Processos.
  • Orquestração de serviços.

Aplicações de processo

  • Arquitetura de aplicações de processo.
  • Testes unitários com JUnit e Arquillian.
  • Interfaces de usuário / Formulários de tarefas.
  • Cenários de implantação.
  • Acessando Serviços (Java, REST, SOAP, EMail)

Integrações via API REST

  • O protocolo REST.
  • Arquitetura dos Serviços Operaton (API REST).
  • Formas de Autenticação.
  • JSON Objects
  • Usando o RESTClient.
  • API REST Batch.
  • API REST Case Definition.
  • API REST Case Instance.
  • API REST Deployment.
  • API REST Engine.
  • API REST Execution e External Task.
  • API REST Variable Instance.
  • Operaton REST client para Java Spring Boot.

Tópicos Avançados.

  • Friendly Enough Expression Language (FEEL).
  • Modelo de programação usando CDI ou Spring.
  • Autenticação via protocolo LDAP (OpenLDAP ou Active Directory).
  • DMN com outras linguagens: JUEL, JavaScript, Groovy ou Python.
  • Integração com Bibliotecas externas Python, Java, etc.
  • Tenants no Operaton.
  • Operaton e Spring Framework.
  • Microsserviços e conectores.
  • Operaton com Apache Maven.
  • Usando o Java Delegate.
  • Como Apoiar o projeto Operaton com códigos de melhorias.
  • Overview do Zeebe para orquestração de microsserviços.

Carga Horária:

  • 24 Horas.

Pré-Requisitos:

  • Conhecimento básico de Java
  • Conhecimento em Java IDE (Eclipse, IntelliJ, NetBeans).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 10GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Operaton e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Operaton e cursos Operaton. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Drupal para DevOps

O treinamento Drupal DevOps prepara profissionais para implementar, gerenciar e automatizar ambientes Drupal em escala, utilizando práticas modernas de DevOps. Este curso foi desenvolvido para capacitar equipes técnicas a integrar o Drupal em pipelines de CI/CD, orquestrar contêineres com Docker e Kubernetes, e automatizar deploys, garantindo eficiência e segurança em ambientes de produção.

Nosso conteúdo programático combina conceitos fundamentais de DevOps com atividades práticas focadas no ecossistema Drupal, abordando desde a configuração de ambientes conteinerizados até estratégias de backup, monitoramento e segurança.

Este treinamento é ideal para desenvolvedores, administradores de sistemas e arquitetos que desejam dominar a automação de deploys, otimizar fluxos de trabalho e garantir a entrega contínua de soluções web robustas, como sites, portais, intranets e sistemas corporativos integrados.

Calendário de turmas.

Somente no modelo corporativo.

Conteúdo Programático.

Fundamentos de DevOps para Drupal.

  • O que é DevOps e sua importância para projetos Drupal.
  • CI/CD: Conceitos e Ferramentas (GitHub Actions, GitLab CI, Jenkins).
  • Infraestrutura como Código (IaC) e sua aplicação ao Drupal.
  • Conceito de pipelines de deploy automatizado

Contêineres e Docker para Drupal.

  • Introdução ao Docker e Docker Compose.
  • Criando um ambiente de desenvolvimento Drupal com Docker.
  • Dockerfile para Drupal: boas práticas.
  • Montagem de volumes e persistência de dados.
  • Rede entre contêineres: Nginx, PHP, e Banco de Dados (MariaDB/PostgreSQL).
  • Exercício prático: subindo um ambiente completo de Drupal com Docker.

Orquestração de Contêineres com Kubernetes.

  • O que é Kubernetes e sua relação com Docker.
  • Conceitos básicos: Pods, Deployments, Services, ConfigMaps, Secrets.
  • Criando manifests YAML para deploy do Drupal.
  • Deploy do Drupal em um cluster Kubernetes.
  • Configurando o banco de dados externo para Drupal no K8s.
  • Deploy de uma aplicação Drupal simples em um cluster Kubernetes.

CI/CD e Pipelines para Drupal.

  • Configurando repositórios Git para projetos Drupal.
  • Introdução ao GitHub Actions e GitLab CI.
  • Criando pipelines automatizados.
  • Build da imagem Docker.
  • Testes automatizados de código PHP (PHPUnit, PHPStan).
  • Deploy contínuo no Kubernetes.
  • Configurando CI/CD para deploy automático do Drupal em um cluster Kubernetes.

Monitoramento e Logging.

  • Introdução ao Prometheus e Grafana para monitorar ambientes Drupal.
  • Logs com Elasticsearch, Fluentd e Kibana (EFK Stack).
  • Configurando métricas e alertas no Kubernetes.
  • Monitorando a saúde dos pods Drupal em um cluster.

Backup, Segurança e Disaster Recovery.

  • Backups automatizados para Drupal (Banco de dados e arquivos).
  • Configurando roles, permissões e secrets no Kubernetes.
  • Estratégias de rollback e disaster recovery.
  • Configurando backups automatizados e plano de recuperação de desastres.

Carga Horária:

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos:

  • Conhecimento Básico de Docker e Kubernetes.
  • Conhecimento Básico de Drupal.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T.
  • Sistemas Operacionais : GNU/Linux, Windows , MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Drupal e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Drupal e cursos Drupal. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Doris

O Treinamento em Apache Doris tem foco em ensinar como explorar, armazenar e analisar grandes volumes de dados para Big Data Analytics e Data Warehousing. Abordamos desde a instalação e configuração até a otimização de consultas para alto desempenho, utilizando sua arquitetura OLAP colunar.

O Apache Doris é um banco de dados analítico open source, projetado para fornecer consultas SQL rápidas e eficientes, suportando cenários de Business Intelligence (BI), relatórios analíticos, dashboards e processamento de Big Data. Ele se integra com diversas ferramentas como Apache Flink, Apache Spark, Hadoop, Hive, Presto e Kafka, facilitando a ingestão e análise de dados em larga escala.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Doris 2.1.8 e foi modificado pela última vez em 9 de Fevereiro de 2025.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • O que é Business Intelligence.
  • O que é Data Warehouse.
  • O que é Lakehouse.
  • ETL (Extração, Transformação e Carga).
  • Bases OLAP, ROLAP, MOLAP e OLTP.
  • Sistemas Transacionais X Sistemas Dimensionais (OLTP X OLAP).
  • Dimensões e Modelo Dimensional.
  • Modelo Estrela (Star Schema).
  • Software Livre x Open Source.
  • Apache Software Foundation.
  • Licença Apache 2.0.

Conceitual Apache Doris.

Instalação do Apache Doris.

Table Design

  • Data Model.
  • Criando Tabelas.
  • Data Partition.
  • Rollup e Query.
  • Index.

Data Import.

  • Características de Importação.
  • External Storage Data.
  • Sincronização de dados.
  • Local Data.
  • Subscribe Kafka Data.

Data Export.

  • Exportação de Dados.
  • Export Table Structure
  • Export Query Result
  • Backup de Dados.

Update e Delete.

  • Update
  • Delete
  • Batch Delere
  • Sequence Column

Uso avançado.

  • Schema Change.
  • Data Cache.
  • Materialized view.
  • HLL ApproximateDe-duplication.
  • Time Zone.
  • Dynamic Partition
  • Join Optimization.
  • Bitmap Precise De-Duplication.
  • Variables.
  • File Manager

Ecossistema.

  • Spark Doris Connector
  • Seatunnel Connector.
  • UDF
  • Flink Doris Connector.
  • DataX doriswriter
  • Audit log plugin.

SQL.

  • SQL Function.
  • DML.
  • Utility.
  • DDL.
  • Data Type.

Cluster .

  • Cluster Upgrade.
  • Statistics Query Execution.
  • Metadata Operation.
  • Config.
  • Multi-tenancy.
  • Elastic Scaling
  • Manutenção e Monitoramento.
  • Authoriry Management.

Segurança e Autenticação.

  • Authentication and Authorization.
  • Authentication and Authorization Framework.
  • Authentication.
  • Authorization.
  • Types of Permissions.
  • Permission Levels.
  • Data Masking.

API

  • API version.
  • Meta Service API.
  • Field values.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em Docker.
  • Conhecimento Básico em Banco de dados e SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 12GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todo o software Apache Doris e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Doris e cursos Apache Doris. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Terraform

Sobre o Treinamento.

O treinamento fundamental Terraform prepara profissionais para o mercado de infraestrutura como código (IaC). Seu conteúdo programático foi desenvolvido para capacitar profissionais a implementar soluções robustas em ambientes nativos de nuvem, otimizando práticas de automação e gestão de infraestrutura em nuvens públicas, privadas ou híbridas, com foco em evitar lock-in de fornecedores.

Todo o treinamento é ministrado com base na versão open source do Terraform, garantindo uma experiência prática e alinhada às melhores práticas da comunidade. O material é completamente em Português do Brasil, com um ambiente de aprendizado personalizado e metodologia de ensino adaptada às necessidades de cada aluno.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Terraform 1.5.5 e foi modificado pela última vez em 08 de agosto de 2024.

Conteúdo Programático.

Conceitual Terraform.

  • Introdução à Infraestrutura como Código (IaC).
  • IaC x Gerenciamento Tradicional de Infraestrutura.
  • O que é o Terraform?
  • Casos de uso do Terraform no mercado.
  • Ferramentas de automação de infraestrutura.
  • Histórico e motivações para a criação do Terraform.
  • OpenTofu X Terraform.
  • Fundamentos do Terraform: Providers, Resources e Modules.
  • Gerenciamento de estados no Terraform.
  • Conceito de idempotência no Terraform.
  • Casos de uso de Terraform no mercado global e nacional.
  • Comunidade Terraform e HashiCorp.
  • Licença BSL.

Instalação do Ambiente Terraform.

  • Instalação e configuração do Terraform CLI.
  • Configuração do backend para gerenciamento de estados (local e remoto).
  • Integração com sistemas de versionamento (Git).

Fundamentos do Terraform.

  • Estrutura de arquivos e diretórios no Terraform.
  • Introdução ao HCL (HashiCorp Configuration Language).
  • Blocos básicos: Provider, Resource e Output.
  • Execução de comandos básicos: terraform init, plan, apply, e destroy.
  • Gerenciamento de estados no Terraform.
  • Tipos de Variáveis.
  • Variáveis Default.
  • Manipulação de variáveis e arquivos de variáveis.
  • Variáveis de saída.
  • Escrevendo VPC de Rede.
  • Utilizando backends.

Gerenciamento de Infraestrutura com Terraform.

  • Configuração de múltiplos provedores: AWS, Azure, GCP, entre outros.
  • Uso de variáveis sensíveis (Terraform Vault).
  • Modularidade: criação e utilização de módulos reutilizáveis.
  • Trabalhando com módulos.
  • Escrevendo módulos.
  • Versionamento de módulo.
  • Utilizando módulos versionados.
  • Estratégias para gerenciar ambientes (dev, stage, prod).
  • Uso de workspaces para segmentação de configurações.

Segurança e Governança no Terraform.

  • Práticas de segurança na gestão de infraestrutura com Terraform.
  • Configuração de roles, políticas e permissões no Terraform.
  • Auditoria e compliance com Terraform e ferramentas associadas.

Troubleshooting e Boas Práticas.

  • Terraform fmt e plugins vscode.
  • TFLint.
  • Nomes de recursos.
  • Source module.
  • Pipeline de modules.
  • Solução de problemas comuns no Terraform.
  • Lidando com erros e mensagens de logs.
  • Estratégias de rollback e recuperação de estados.
  • Otimização de configurações e boas práticas no uso do Terraform.

Integração com Ferramentas e Automação.

  • Terraform e GitOps.
  • Terraform em pipelines de CI/CD.
  • MinIO/S3 como backend.
  • Integração com ferramentas de monitoramento e alertas.
  • Automação avançada com scripts e templates Terraform.
  • Overview Atlantis (Terraform Pull Request Automation).
  • Terragrunt.

Casos de Uso Reais.

  • Provisionamento de infraestrutura em nuvem pública e privada.
  • Criação de ambientes altamente disponíveis e escaláveis.
  • Configuração de infraestrutura para aplicações modernas (microsserviços e contêineres).
  • Exemplos de deploy multi-cloud.

Assuntos Complementares.

  • Terraform Cloud e Terraform Enterprise: vantagens e funcionalidades.
  • Migração de outros IaC para Terraform.
  • Uso avançado de módulos e provedores customizados.

Montagem de Projetos Reais.

  • Configuração de um projeto completo com Terraform.
  • Deploy de infraestrutura escalável em um ambiente multi-cloud.
  • Gestão de mudanças em infraestrutura já existente.
  • Demonstração prática de um projeto fim a fim.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único (não trabalhamos com limite de participantes para os treinamentos, orientamos turmas de até 15 alunos para melhor desempenho).

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico de redes (Proxy, DNS, etc).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB
  • Espaço em Disco: 30 GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Terraform e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos Terraform e Cursos Terraform. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento OpenTofu

Sobre o Treinamento.

O treinamento fundamental OpenTofu prepara profissionais para o mercado de infraestrutura como código (IaC). Seu conteúdo programático foi desenvolvido para capacitar profissionais a implementar soluções robustas em ambientes nativos de nuvem, otimizando práticas de automação e gestão de infraestrutura em nuvens públicas, privadas ou híbridas, com foco em evitar lock-in de fornecedores.

Todo o treinamento é ministrado com base na versão open source do OpenTofu, garantindo uma experiência prática e alinhada às melhores práticas da comunidade. O material é completamente em Português do Brasil, com um ambiente de aprendizado personalizado e metodologia de ensino adaptada às necessidades de cada aluno.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o OpenTofu v1.8.8 e foi modificado pela última vez em 20 de Dezembro de 2024.

Conteúdo Programático.

Conceitual OpenTofu.

  • Introdução à Infraestrutura como Código (IaC).
  • IaC x Gerenciamento Tradicional de Infraestrutura.
  • Casos de uso do OpenTofu.
  • Ferramentas de automação no mercado.
  • Ecossistema OpenTofu.
  • OpenTofu X Terraform.
  • Histórico e motivações para a criação do OpenTofu.
  • Fundamentos do OpenTofu.
  • Conceitos de modularidade e reutilização de código no OpenTofu.
  • Gerenciamento de estados no OpenTofu.
  • Casos de uso do OpenTofu no mercado.
  • Empresas utilizando OpenTofu no Brasil e no mundo.
  • Comunidade OpenTofu.

Instalação do Ambiente OpenTofu.

  • Preparação do ambiente local.
  • Instalação e configuração do OpenTofu.
  • Configuração do Terraform CLI para compatibilidade com o OpenTofu.
  • Configuração do backend de estado remoto.

Fundamentos do OpenTofu.

  • Estrutura de arquivos e diretórios no OpenTofu.
  • Introdução ao HCL (HashiCorp Configuration Language).
  • Configuração de provedores.
  • Criação de recursos básicos com OpenTofu.
  • Planejamento, aplicação e destruição de recursos.
  • Controle de estados no OpenTofu.

Gerenciamento de Infraestrutura.

  • Gerenciando múltiplos ambientes (dev, stage, prod).
  • Uso de variáveis e arquivos de variáveis.
  • Blocos de módulos: criação e reutilização.
  • Provedores no OpenTofu: AWS, Azure, GCP, entre outros.
  • Organização e boas práticas em projetos OpenTofu.

Segurança e Governança.

  • Gestão de acesso com Workspaces.
  • Práticas de segurança na gestão de infraestrutura com OpenTofu.
  • Configuração de roles e políticas.
  • Auditoria e compliance com OpenTofu.

Troubleshooting e Boas Práticas.

  • Tofu fmt e plugins vscode.
  • TFLint.
  • Nomes de recursos.
  • Source module.
  • Pipeline de modules.
  • Lidando com erros e mensagens de logs.
  • Estratégias de rollback e recuperação de infraestrutura.
  • Integração com ferramentas de CI/CD.

Assuntos Complementares.

  • Utilizando o OpenTofu com ferramentas de orquestração como Kubernetes.
  • Integração com Docker para provisionamento de infraestrutura local.
  • Automação avançada com uso de scripts e templates.
  • Migração de projetos Terraform para OpenTofu.

Montagem de Projetos Reais.

  • Configurando infraestrutura completa com OpenTofu.
  • Criação de ambientes altamente disponíveis.
  • Exemplos práticos de deploy em ambientes multi-cloud.
  • Demonstração de um projeto fim a fim.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único (não trabalhamos com limite de participantes para os treinamentos, orientamos turmas de até 15 alunos para melhor desempenho).

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico de redes (Proxy, DNS, etc).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 30GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares OpenTofu e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos OpenTofu e Cursos OpenTofu. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache DevLake

O Treinamento em Apache DevLake tem foco em ensinar como explorar, organizar e visualizar dados de métricas para medir o desempenho de equipes de desenvolvimento e operações (DevOps), apresentando sua interface intuitiva de monitoramento das métricas, suporta a DevOps Research and Assessment (DORA) e diversas integrações como Jenkins, github Actions, Jira, GitLab CI, entre outras.
O Apache DevLake é uma plataforma open source voltada para análise e observabilidade de dados relacionados ao desenvolvimento de software. Ele ajuda equipes de engenharia a monitorar e entender melhor os processos de desenvolvimento, consolidando informações de diversas ferramentas utilizadas no ciclo de vida de software.

Dificuldade: Baixa.

Aplicabilidade.

Este treinamento foi desenvolvido usando o DevLake v1.0.1 e foi modificado pela última vez em 28 de Novembro de 2024.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • Introdução a Data Visualization.
  • O Software Apache DevLake.
  • Software Livre x Open Source.
  • Licença Apache 2.0.
  • Licenciamento do DevLake.
  • Histórico do DevLake.
  • Empresas usando DevLake no Mundo.
  • Empresas usando DevLake no Brasil.
  • Comunidade DevLake.

Básico em DORA Metrics.

  • O que é o DORA e sua relevância no DevOps.
  • História e origem: Pesquisa State of DevOps Report.
  • Benefícios da adoção do DORA Metrics.
  • Lead Time for Changes.
  • Deployment Frequency.
  • Mean Time to Recovery (MTTR).
  • Change Failure Rate (CFR).

Apache DevLake.

  • Arquitetura do DevLake.
  • Componentes do DevLake.
  • Data Models.
  • Domain Layer Schema.
  • Tool Layer Schema.
  • Raw Layer Schema.
  • System Tables.
  • Organizando Projetos.
  • Princípios de organização de projetos.

Instalação e configuração.

  • Requisitos de instalação.
  • DevLake com Docker Compose.
  • DevLake com Helm em Kubernetes.
  • Configurando em um Grafana Externo.

Config UI.

  • Apache DevLake Config UI.
  • Data collection process.
  • Data Connections.
  • Project.
  • Team.
  • Project Team.
  • Collect Data.
  • WebHooks.
  • API KEY.

Data Connections

  • Azure DevOps.
  • Bamboo.
  • BitBucket.
  • CircleCI.
  • Github.
  • GitLab.
  • Jenkins.
  • Jira.
  • Opsgine.
  • PagerDuty.
  • Sonarqube.
  • TADP.

Plugins e Subtasks.

  • Plugins
  • Subtasks.
  • Variáveis de Ambiente.

Metrics.

  • Requirement Count.
  • Requirement Lead Time.
  • Requirement Delivery Rate.
  • Requirement Granularity.
  • Bug Age.
  • Incident Age.
  • Commit Count.
  • Commit Author Count.
  • Added Lines of Code.
  • Deleted Lines of Code.
  • PR Count.
  • PR Cycle Time.
  • PR Coding Time.
  • Build Count.
  • Build Duration.
  • Build Success Rate.

DORA Metrics.

  • DORA - Deployment Frequency.
  • DORA - Median Lead Time for Changes.
  • DORA - Failed Deployment Recovery Time.
  • DORA - Median Time to Restore Service.
  • DORA - Change Failure Rate.

Dashboards Grafana.

  • Visualizando Dashboards.
  • Dashboard DORA.
  • Dashboard Engineering Overview.
  • Dashboard Engineering Throughput and Cycle Time.
  • Dashboard Community Experience.
  • Dashboard GitHub.
  • Dashboard GitLab.
  • Dashboard Jenkins.
  • Dashboard Jira.
  • Configuração de alertas.
  • Customizações básicas de Dashboards.

Segurança e Autenticação.

API

  • API do Apche DevLake.
  • Autenticação.
  • Swagger.

Carga Horária.

  • 16 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em Docker.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todo o software Apache DevLake e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos DevLakecursos DevLake. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Iceberg

O treinamento em Apache Iceberg tem foco em aprofundar o conhecimento de engenheiros de dados sobre um dos formatos de tabela mais avançados para ambientes de Big Data. Além dos conceitos, vantagens e arquitetura, os profissionais aprenderão a gerenciar tabelas Iceberg, otimizando particionamento, leitura incremental e time travel para seu ambiente de dados. O treinamento abrange desde os fundamentos até técnicas avançadas.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Iceberg 1.8.1. e foi modificado pela última vez em 1 de Março de 2025.

Conteúdo Programático

Conceitual.

  • Introdução a Big Data.
  • Arquivos serializados.
  • Formato Colunar.
  • Data Swamp.
  • Datawarehouse X Data Lake X Data Lakehouse.
  • O Software Apache Iceberg.
  • Motivações do Apache Iceberg.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • História e evolução do Apache Iceberg.
  • Empresas usando Iceberg no Mundo.
  • Empresas usando Iceberg no Brasil.
  • Comunidade Apache Iceberg.
  • Versões do Apache Iceberg.
  • Vendedores e Distribuições do Apache Iceberg.

Apache Iceberg

  • Arquitetura do Apache Iceberg.
  • Vantagens e benefícios do uso do Apache Iceberg.
  • Apache Iceberg X Parquet x JSON x CSV x Apache ORC.
  • Compreensão dos tipos de dados suportados.
  • Metadados: Manifests, Manifest Lists, e Snapshots.
  • Suporte a ACID (Atomicidade, Consistência, Isolamento e Durabilidade).
  • Estratégias de particionamento oculto.
  • Indexação de dados.

Instalando o Apache Iceberg

  • Instalação do Apache Iceberg em diferentes ambientes (local, cluster, cloud).
  • Configuração inicial e melhores práticas.
  • Construção de tabelas Iceberg.

Leitura e escrita do Apache Iceberg.

  • Como escrever dados no formato Iceberg usando diversas linguagens (Python, Java, Scala).
  • Modos de escrita: Append, Overwrite e Merge.
  • Otimização da escrita para grandes volumes de dados.
  • Como ler dados Iceberg em diferentes ambientes e linguagens.
  • Técnicas de leitura incremental (Read Snapshots, Time Travel).
  • Otimização da leitura para consultas eficientes.

Otimização e Desempenho.

  • Estratégias para otimizar consultas em tabelas Iceberg.
  • Uso de índices e metadados para acelerar leituras.
  • Técnicas de compactação e remoção de arquivos órfãos (garbage collection).

Compactação e Particionamento.

  • Compactação de dados para reduzir fragmentação de arquivos.
  • Particionamento oculto e dinâmico.
  • Estratégias avançadas para otimizar particionamento.

Integração com Ferramentas de Big Data.

Casos de Uso.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento básico do Ecossistema de Big Data.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Iceberg e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Iceberg e cursos Apache Iceberg . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Hacking Data Driven Program

Programa de Capacitação e Desenvolvimento para times de profissionais de dados.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time de dados e atender a profissionais como Data Scientists, Data Engineers, Analytics Engineer e Data Analyst assim como dar suporte para times de infraestrutura ou DevOps de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - DevOps para Big Data.

Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Automação e Orquestração de Ambientes

Armazenamento de Objetos para Data Lakes

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Trilha - Data Engineer.

Esta trilha e voltada para profissionais responsáveis por manter e organizar toda a arquitetura para dados do ambiente de Big Data.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Armazenamento e Processamento Distribuído

Ingestão e Streaming

Formatos de Armazenamento Colunar

Data Lake Table Formats

Data Orchestration & ETL Pipelines

Search Engines

NoSQL & Big Data Storage

NoSQL & Cache

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Analyst.

Esta trilha foca em profissionais que atuarão no tratamento, apresentação e análise dos dados, sem as complexidades de um Data Scientist, mas com todo potencial para análise quantitativa e estatística através de técnicas e ferramentas tradicionais como Business Intelligence, OLAP, metadados, reports e dashboards
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

SQL Query Engines

Data Visualization & BI

Data Exploration & Query Assistants

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Scientist.

Esta trilha e voltada para profissionais que já tenham uma vivência com dados e vão evoluir agora no tratamento mais aprofundado usando técnicas de Inteligencia Artificial, Machine Learning e Deep Learning.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Machine Learning & Data Mining

Ambientes Interativos e Notebooks

Linguagens e Ferramentas de Análise Estatística

Deep Learning e Frameworks

Gerenciamento e Orquestração de Modelos de ML

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento de alguma linguagem de programação.
  • Conhecimento em banco de dados e SQL.
  • Conhecimento básico de estatística.

Trilha - Analytics Engineer.

Esta trilha e para especialista em Data Analytics que queiram ampliar seus conhecimentos para nova área que está se formando voltada a engenharia analítica. Esta trilha é uma ligação entre a trilha de engenharia de dados e a trilha de análise de dados.

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Governance.

Esta trilha e para especialista em governança de dados e segurança de dados, capacita profissionais para definir, implementar e manter políticas de governança, segurança, catálogo e qualidade dos dados.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Catálogo de Dados e Metadados

Segurança e Governança de Acesso a Dados

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Leia mais...

Hacking DevOps Program

Programa de Capacitação e Desenvolvimento para times de profissionais de DevOps.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time Devops e atender a profissionais como Data Scientists, Data Engineers, Engineers Analytics e Data Analyst assim como dar suporte para times de infraestrutura de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - Infraestrutura
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Total de horas de capacitação: 88 Horas


 

Leia mais...

Log in