Apache AirFlow

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache Iceberg

O treinamento em Apache Parquet tem foco em aprofundar o conhecimento de engenheiros de dados do formato mais utilizado pelos ambiente de Big data da atualidade, além dos conceitos, vantagens e arquitetura os profissionais poderão administrar a forma mais interessante do Parquet para seu ambiente de dados / big data. O treinamento passa pelo fundamental e estende-se ao avançado.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Big Data.
  • Arquivos serializados.
  • Formato Colunar.
  • O Software Apache Parquet.
  • Motivações do Parquet.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • Histórico do Parquet.
  • Empresas usando Parquet no Mundo.
  • Empresas usando Parquet no Brasil.
  • Comunidade Parquet.
  • Versões do Parquet.

Apache Parquet

  • Arquitetura do Apache Parquet.
  • Otimização com Parquet.
  • Parquet x JSON x CSV x Apache ORC.
  • Tipos de dados.
  • Block.
  • File.
  • Row group.
  • Column chunk
  • Page.
  • Metadata.
  • Nested Encoding.

Compactação e Criptogratia.

  • Tipos de Compactação.
  • Vantagens e Desvantagens.
  • Criptografia do Parquet.

Parquet no Ecossistema de Big Data.

  • Hive e Parquet.
  • Spark e Parquet.
  • Hadoop Input/Output e Parquet.
  • Pentaho Data Integration e Parquet.

Build

  • Apache Maven.
  • Compilando o Parquet.

Módulos

  • Apache Parquet for C++.
  • Apache Parquet em Rust.
  • Parquet MR.

Parquet na Cloud.

  • AWS S3 Inventory

Gerais.

  • Extendendo o Parquet.
  • Config Row group size.
  • Config Data page size

Carga Horária.

  • 4 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de de Hadoop e HDFS.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Parquet e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Parquet e cursos Apache Parquet . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

Powered by BreezingForms

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Hacking Data Driven Program

Programa de Capacitação e Desenvolvimento para times de profissionais de dados.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time de dados e atender a profissionais como Data Scientists, Data Engineers, Engineers Analytics e Data Analyst assim como dar suporte para times de infraestrutura de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - Infraestrutura para Big Data.
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Total de horas de capacitação: 88 Horas


Trilha - Data Engineers.
Esta trilha e voltada para profissionais responsáveis por manter e organizar toda a arquitetura para dados do ambiente de Big Data.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Total de horas de capacitação: 156 Horas


Trilha - Data Analyst.
Esta trilha foca em profissionais que atuarão no tratamento, apresentação e análise dos dados, sem as complexidades de um Data Scientist, mas com todo potencial para análise quantitativa e estatística através de técnicas e ferramentas tradicionais como Business Intelligence, OLAP, metadados, reports e dashboards

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Total de horas de capacitação: 120 Horas


Trilha - Data Scientist.
Esta trilha e voltada para profissionais que já tenham uma vivência com dados e vão evoluir agora no tratamento mais aprofundado usando técnicas de Inteligencia Artificial, Machine Learning e Deep Learning.

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento de alguma linguagem de programação.
  • Conhecimento em banco de dados e SQL.
  • Conhecimento básico de estatística.

Total de horas de capacitação: 96 Horas


Trilha - Engineers Analytics.
Esta trilha e para especialista em Data Analytics que queiram ampliar seus conhecimentos para nova área que está se formando voltada a engenharia analítica. Esta trilha é uma ligação entre a trilha de engenharia de dados e a trilha de análise de dados.

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Total de horas de capacitação: 24 Horas


Leia mais...

Hacking DevOps Program

Programa de Capacitação e Desenvolvimento para times de profissionais de DevOps.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time Devops e atender a profissionais como Data Scientists, Data Engineers, Engineers Analytics e Data Analyst assim como dar suporte para times de infraestrutura de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - Infraestrutura para Big Data.
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Total de horas de capacitação: 88 Horas


Trilha - Data Engi

Leia mais...

Treinamento Trino - Distributed SQL query engine

Sobre o Treinamento.

Este treinamento capacita os alunos para com o software Trino. O Trino é um mecanismo de consulta distribuído para BIG DATA usando a linguagem de consulta SQL. Sua arquitetura permite que os usuários consultem fontes de dados como Hadoop, Cassandra, Kafka, AWS S3, Alluxio, MySQL, MongoDB e Teradata, e permite o uso de várias fontes de dados em uma consulta. o mesmo é um fork do PrestoDB.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Empregar o Trino em conceitos-chave para otimizar os sistemas de BIG DATA modernos.
  • Executar armazéns de escala de exabyte.
  • Clone os dados para um sistema de armazenamento de dados proprietário.
  • Configurar os principais recursos do Trino.
  • Utilizar as opções da interface do usuário do Trino.
  • Conectar-se com ferramentas de visualização.

Público-alvo.

Este treinamento é direcionado para as seguintes profissionais:

  • Engenheiros de infraestrutura de big data.
  • Engenheiro de Dados.
  • Desenvolvedores.
  • Cientistas de Dados.

Dificuldade.

Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Trino 450 e foi modificado pela última vez em 20 de Junho de 2024.

Conteúdo Programático

Introdução e conceituais.

  • SQL ANSI.
  • Query Engines.
  • O que é o Trino.
  • Arquitetura do Trino.
  • Recursos e benefícios do Trino.
  • Comparação com outras ferramentas de processamento de dados.
  • Licenciamento (Free Software X Open Source).
  • Empresas usando Trino no mundo.
  • Empresas usando Trino no Brasil.
  • Versões do Trino.
  • Trino X PrestoDB X Hive.
  • Comunidade Trino no Brasil e no Mundo.
  • Casos de Uso.
  • Livros, sites, documentação e referências complementares.

Instalação e Configuração.

  • Requisitos de hardware e software.
  • Instalação do Trino em diferentes sistemas operacionais.
  • Configuração básica do Trino.

Modelagem de Dados e Consultas

  • SQL Statement Syntax.
  • Tipos de dados suportados pelo Trino.
  • Modelagem de dados no Trino.
  • Consultas SQL básicas no Trino.
  • Consultas SQL avançadas no Trino.
  • Consultas distribuídas no Trino.
  • Filtrando dados.
  • Migrando fontes de dados.
  • Trabalhando com bandas de bolllinger.
  • Benchmarking com TCHP.
  • Trabalhando com conectores.

Administração e Gerenciamento de Cluster

  • Web Interface.
  • Tuning Trino.
  • Properties Reference.
  • Conceitos de gerenciamento de cluster no Trino.
  • Configuração de um cluster Trino.
  • Adição e remoção de nós do cluster.
  • Monitoramento e solução de problemas do cluster.

Integração com outras Ferramentas

  • Driver JDBC para Trino.
  • Integração com ferramentas de armazenamento de dados, como Hadoop HDFS, Amazon S3, Minio, e outros
  • Integração com ferramentas de processamento de dados, como Apache Spark e Apache Flink.
  • Integração com ferramentas de Business Intelligence e ETL (Pentaho, Hop).

Segurança

  • Configuração de segurança.
  • Password File Authentication.
  • Authorization.

API

  • HTTP Connector
  • Trino Client REST API.
  • Trino Worker REST API.
  • SerializedPage Wire Format.

Uso Avançado

  • Uso de funções personalizadas no Trino.
  • Uso de UDFs (User-Defined Functions) no Trino.
  • Uso de recursos avançados de segurança, como a criptografia de dados.
  • Uso do Trino em ambientes de produção.

Práticas recomendadas

  • Melhores práticas para modelagem de dados e consultas no Trino.
  • Melhores práticas para gerenciamento de cluster no Trino.
  • Melhores práticas para integração com outras ferramentas.
  • Melhores práticas para uso avançado do Trino.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

Este treinamento pressupõe que o aluno seja competente com as seguintes ferramentas, tecnologias e conceitos:

  • Conhecimento básico em desenvolvimento Java.
  • Conhecimento básico em arquitetura de microsserviços.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Trino e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações (somente em presenciais).

Metodologia.

  • O treinamento apresenta uma empresa fictícia que necessita analisar dados de suas áreas e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Trino e cursos Trino. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Drools Business Rules Management System (BRMS)

O treinamento Drools prepara profissionais para o processo de gerenciamento de regras de negócio. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções complexas em ambientes com larga escala em suas aplicações.
Todo o treinamento e ministrado sobre a versões Community do Drools com Materiais em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Instalar e configurar o setup para utilizar o Drools.
  • Entender o Design Rules,
  • Implementar regras no Drools.
    • Compreender o mecanismos de regras.
    • Entender as sintax de regras.
    • Executar regras.
  • Integrar aplicações ao BRMS Drools.
  • Implantação regras sem compilar.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando Drools 8.44.0 e foi modificado pela última vez em 6 de Dezembro de 2023.

Conteúdo Programático.

Conceitual.

  • Mecanismo de regras.
  • Business Rules Management System (BRMS)
  • Intelligent Automation.
  • Casos de uso BRMs.
  • Decision Model and Notation (DMN).
  • Decision Requirements Diagram (DRD).
  • O Projeto Drools.
  • Histórico do Drools.
  • Red Hat.
  • Motivações para criação do Drools.
  • Empresas usando Drools no Mundo.
  • Empresas usando Drools no Brasil.
  • Community X Enterprise.

Instalação e Setup com Drools.

  • Pré-requisitos.
  • Compilando o Drools.
  • Workbench.
  • KIE Server.
  • Eclipse IDE.
  • Drools Eclipse plugin.
  • Drools CLI.

Primeiros passos.

  • Criando um projetos de regras.
  • Maven archetype.
  • Decision Services.
  • Usando a DMN.
  • KIE DMN Editor.
  • DMN Information Requirement.
  • DMN custom data types.
  • Configurando o Maven (pom.xml)
  • Testando com curl.

Conceitos do Drools.

  • Stateless Session.
  • Statelessfull Session.
  • Rule Template.

Domain Specific Language (DSL).

  • Substituindo regras por DSL.
  • Testando regras DSL.

Drools Rule Engine.

  • Design Rules.
  • Rules.
  • Facts.
  • Production memory.
  • Working memory.
  • Agenda.
  • Inference and truth.
  • Stated insertions.
  • Logical insertions.
  • Atributos de regras (salience, no-loop, lock-on-active).
  • Activation groups.
  • Fact propagation modes.
  • Phreak rule algorith.
  • Rule base configuration.
  • Complex event processing (CEP).
  • Negative patterns.
  • Session clock.
  • Sliding windows.
  • rule engine queries and live queries.
  • Melhores práticas de regras.

Drools Rule Language (DRL)

  • Arquivo DRL.
  • Syntax (nova X tradicional).
  • DRL Packages.
  • Rule unit.
  • Rule unit use case.
  • Import statements.
  • Type declarations and metadata.
  • Enumerative type declarations.
  • Extended type declarations.
  • Queries em DRL.
  • Rule conditions.

DMN.

  • DMN conformance levels.
  • DMN decision requirements diagram (DRD).
  • FEEL.
  • Rule expressions - FEEL.
  • DMN decision logic.
  • DMN decision tables.
  • DMN model.

KIE (Knowledge Is Everything) API.

  • Kie Project.
  • KieContainer.
  • KieServices.
  • KieSession.
  • KieBase.
  • kmodule.xml
  • kbase Attributes.
  • Engine dependency.
  • KieModule programmatically.
  • KieFileSystem.
  • Result Severity
  • KieScanner.

Drools Event Model.

  • KieRuntimeEventManager.
  • RuleRuntimeEventManager.
  • EventListener.
  • DebugRuleRuntimeEventListener.
  • KieRuntimeEvent.
  • KieRuntimeLogger.
  • FileLogger.
  • ExecutionResults.

Drools Commands.

  • StatelessKieSession.
  • KBatchExecutionCommand.
  • ModifyCommand.
  • InsertElementsCommand.
  • FireAllRulesCommand.

BMPs.

Teste de Regras.

  • Testando com KIE.
  • Testando com JUnit.
  • Simulação de regras.

Assuntos Complementares.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico em desenvolvimento java.
  • Conhecimento básico em Apache Maven.
  • Conhecimento básico em git.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 30GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Drools e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, pasta e bloco de anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos Drools e Cursos Drools. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Bonita Open Source BPM

Este treinamento Bonita BPM é voltado para usuários e desenvolvedores que pretendem conhecer o processo de implementação de workflows na Ferramenta Bonita BPM. Todo o treinamento é ministrado sobre a versão Community do Bonita, repassando conhecimentos sobre conceitos de Workflow e Business Process Management (BPM) os componentes do Bonita BPM Plataform.

O Bonita, é um motor de fluxo de trabalho (Workflow) de código aberto escrito em Java que pode executar processos de negócios descritos no BPMN 2.0.

  • Plataforma aberta e moderna BPM permite flexibilidade para automatizar, personalizar e adaptar rapidamente os processos de negócio.
  • Ferramentas gráficas tornando mais fácil para usuários menos técnicos para projetar e ajustar os processos de negócios, agilizando implementação de aplicativos e alinhamento dos negócios.
  • Processos e formas em bibliotecas reutilizáveis que permitem montagem, aplicação rápida e simples e ao mesmo tempo garantir as melhores práticas e padrões à empresa são incorporadas.

Nosso conteúdo programático que foi construído para formação de consultores na plataforma de Bonita BPM, O mesmo mescla conhecimentos conceituais de Workflow, BPM, Modelagem de Processos e uma introdução ao ECM (Alfresco), assim como, necessidades de infraestrutura, integração e programação, necessários para implementação completa do Software Bonita.

Dificuldade: Média.

Aplicabilidade:

Este treinamento foi desenvolvido usando o Bonita Community 2023.2-u0 e foi modificado pela última vez em 22 de Maio de 2024.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação do Bonita.
  • Desenvolver fluxos de processos usando a metodologia BPM e notação BPMN.
  • Integrar os processos a aplicações externas.
  • Orquestrar processos.
  • Administração do Ambiente.
  • Escalar aplicações.
  • Aplicar níveis de segurança no Bonita.

Conteúdo Programático.

Conceitual.

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução a Notação BPMN.
  • Principais Elementos da Notação BPMN.
  • O Projeto Bonita BPM.
  • Histórico do Bonita.
  • Bonita X Activiti X Camunda X Flowable.
  • Versões do Bonita.
  • Licenciamento.

Instalação do Bonita BPM.

  • Instalação do Bonita Studio.
  • Instalação do Bonita Community Server.
  • Instalando o bundle.
  • Configurando o bundle.

UI do Bonita.

  • Menus.
  • Sub Menus.
  • Primeiros passos na ferramenta.

Criando Processos no Bonita.

  • Configuração Inicial do Bonita Studio.
  • Telas.
  • Desenho do primeiro processo.
  • Pool
  • Lanes.
  • Atores.
  • Organizações.
  • Exportando um processo.
  • Versionamento.
  • Importando organizações.
  • Importando um processo.
  • Testando o processo.

Segurança.

  • Controle de acessos
  • Usuários e Grupos.
  • Sistema de permissões.
  • Formas de Integração com LDAP.

Conectores.

  • Conceito de Conectores.
  • E-mail.
  • Banco de dados.
  • Relatórios.
  • GED.
  • Conceitual do GED Alfresco.
  • Integração com Alfresco.

Administração do Ambiente Bonita.

  • Colocando o Bonita em produção.
  • Tuning.
  • Geração automática de cache.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em Conceitos de Processos.
  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou Mac OS).
  • Conhecimento Básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de Hardware.

  • Memória RAM: 4GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Bonita Community e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Bonita e cursos Bonita. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache ORC

Sobre o Treinamento

Apache ORC é um formato de armazenamento de dados orientado a colunas gratuito e de código aberto. É semelhante a outros formatos de arquivo de armazenamento colunar disponíveis no ecossistema Hadoop, como RCFile e Parquet. Seu conteúdo programático oferece uma estrutura abrangente para um treinamento sobre Apache ORC, abordando desde os conceitos básicos até técnicas avançadas e aplicação prática em projetos.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Apache ORC.

  • O que é Apache ORC?
  • Vantagens e benefícios do uso do Apache ORC.
  • História e evolução do Apache ORC.
  • Empresas usando Apache ORC no Brasil
  • Apache ORC X Apache Parquet X RCFile.

Estrutura Interna do Apache ORC.

  • Visão geral da estrutura de arquivo ORC.
  • Compreensão dos tipos de dados suportados.
  • Exploração da compactação e codificação de dados.
  • ACID support.
  • Types.
  • Indexes.

Configuração e Instalação

  • Instalação do Apache ORC em diferentes ambientes (local, cluster, cloud).
  • Configuração inicial e ajustes recomendados.
  • Building ORC.

Escrita de Dados no Formato ORC.

  • Como escrever dados no formato ORC usando diversas linguagens (Python, Java, etc.).
  • Melhores práticas para otimização da escrita.
  • ORC Adopters.

Leitura de Dados no Formato ORC

  • Como ler dados ORC em diferentes ambientes e linguagens.
  • Otimização da leitura de dados.

Otimização e Desempenho

  • Estratégias para otimizar consultas em dados ORC.
  • Uso de índices e estatísticas para melhorar o desempenho.

Compactação e Particionamento

  • Estratégias para compactação eficiente de dados ORC.
  • Particionamento de dados para melhorar o desempenho.

Integração com Ferramentas de Big Data

  • Integração do Apache ORC com ecossistemas de Big Data como Hadoop e Spark.
  • Uso de ORC em pipelines de dados.
  • Java Tools.
  • Hive DDL.
  • Hive Configuration.

Casos de Uso Avançados

  • Estudos de caso avançados de uso do Apache ORC em ambientes reais.
  • Migração de dados para o formato ORC.
  • Spark DDL.
  • Spark Configuration.

Projeto Prático

  • Desenvolvimento de um projeto prático utilizando o Apache ORC.
  • Implementação de técnicas aprendidas ao longo do curso.

Carga Horária:

  • 16 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache ORC e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache ORC e cursos  Apache ORC. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Apache Kudu

Sobre o Treinamento

O HUE (Hadoop User Experience) é uma interface de usuário web que facilita o uso do ecossistema Hadoop para processamento de big data. Este treinamento fundamental em HUE prepara profissionais para explorar e utilizar eficientemente as ferramentas do Hadoop para análise e processamento de dados em larga escala. Seu conteúdo programático foi desenvolvido para capacitar os participantes a dominar as técnicas essenciais necessárias para lidar com big data de forma eficaz.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Opensearch.

Instalação do Opensearch.

Fundamentos do Opensearch

  • Arquitetura do Opensearch.
  • Sharding.
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Admin UI.
  • Adicionando conteúdo ao Opensearch.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

 Índices no Opensearch.

  • Introdução aos índices no Opensearch.
  • Estrutura de um índice: documentos, shards e réplicas.
  • Criação de um índice
  • Configurações de índice e mapeamento de tipos.
  • Indexação de documentos
  • Tokenização.
  • Normalização.
  • Encontrando a raiz das palavras.
  • Stopwords.
  • Sinônimos.
  • Erros ortográficos
  • Analysis.
  • Index Shard Allocation.
  • Index blocks.
  • Mapper.
  • Merge.
  • Similarity module.
  • Slow Log.
  • Index Sorting.

Configurações do Opensearch.

  • Introdução às configurações no Opensearch.
  • Arquivo de configuração Opensearch.yml.
  • Configuração de armazenamento (caminho de dados e log).
  • Configuração de plugins e módulos.
  • Configuração de indexação e busca.
  • Configuração de idioma.

Cluster

  • O modelo distribuído.
  • Configuração de um cluster Opensearch.
  • Configurações de rede e descoberta de nós.
  • Shards: número, tamanho e alocação
  • Réplicas e alta disponibilidade.

API

  • API Opensearch.
  • EQL search APIs.
  • Data stream APIs

Opensearch e Java

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Java client.
  • Conectando ao Opensearch.
  • Java Low Level REST Client.
  • Indexando documentos.

Logstash

  • Instalação e Configuração.
  • Inputs, Filters, and Outputs.
  • Backup and restore.
  • Melhores práticas.

Openseach Dashboard

  • Instalação e configuração.
  • Time Picker, Search, and Filters.
  • Opensearch Discover, Visualization, and Dashboard Interfaces.
  • Backup and restore
  • Melhores práticas.

Monitoramento

  • Monitoramento.
  • Desdobramento, desenvolvimento.
  • Manutenção e otimização básica.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Opensearch e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Opensearch e cursos Opensearch. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Apache Ranger

Sobre o Treinamento

O HUE (Hadoop User Experience) é uma interface de usuário web que facilita o uso do ecossistema Hadoop para processamento de big data. Este treinamento fundamental em HUE prepara profissionais para explorar e utilizar eficientemente as ferramentas do Hadoop para análise e processamento de dados em larga escala. Seu conteúdo programático foi desenvolvido para capacitar os participantes a dominar as técnicas essenciais necessárias para lidar com big data de forma eficaz.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Opensearch.

Instalação do Opensearch.

Fundamentos do Opensearch

  • Arquitetura do Opensearch.
  • Sharding.
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Admin UI.
  • Adicionando conteúdo ao Opensearch.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

 Índices no Opensearch.

  • Introdução aos índices no Opensearch.
  • Estrutura de um índice: documentos, shards e réplicas.
  • Criação de um índice
  • Configurações de índice e mapeamento de tipos.
  • Indexação de documentos
  • Tokenização.
  • Normalização.
  • Encontrando a raiz das palavras.
  • Stopwords.
  • Sinônimos.
  • Erros ortográficos
  • Analysis.
  • Index Shard Allocation.
  • Index blocks.
  • Mapper.
  • Merge.
  • Similarity module.
  • Slow Log.
  • Index Sorting.

Configurações do Opensearch.

  • Introdução às configurações no Opensearch.
  • Arquivo de configuração Opensearch.yml.
  • Configuração de armazenamento (caminho de dados e log).
  • Configuração de plugins e módulos.
  • Configuração de indexação e busca.
  • Configuração de idioma.

Cluster

  • O modelo distribuído.
  • Configuração de um cluster Opensearch.
  • Configurações de rede e descoberta de nós.
  • Shards: número, tamanho e alocação
  • Réplicas e alta disponibilidade.

API

  • API Opensearch.
  • EQL search APIs.
  • Data stream APIs

Opensearch e Java

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Java client.
  • Conectando ao Opensearch.
  • Java Low Level REST Client.
  • Indexando documentos.

Logstash

  • Instalação e Configuração.
  • Inputs, Filters, and Outputs.
  • Backup and restore.
  • Melhores práticas.

Openseach Dashboard

  • Instalação e configuração.
  • Time Picker, Search, and Filters.
  • Opensearch Discover, Visualization, and Dashboard Interfaces.
  • Backup and restore
  • Melhores práticas.

Monitoramento

  • Monitoramento.
  • Desdobramento, desenvolvimento.
  • Manutenção e otimização básica.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Opensearch e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Opensearch e cursos Opensearch. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Sqoop

Sobre o Treinamento

O Apache Sqoop é uma interface de linha de comando para mover dados de bancos de dados relacionais e Hadoop. O treinamento Apache Sqoop prepara profissionais a implantar , integrar e criar pipeline de dados.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Sqoop.

Instalação do Sqoop.

Fundamentos do Sqoop

Executando o Sqoop.

  • Sqoop CLI.
  • Comando Sqoop.
  • Conexão com bancos de dados.
  • Configuração de drivers JDBC.
  • Comandos básicos de importação.
  • Parâmetros de configuração.
  • Importar MySQL para HDFS.
  • Importar MySQL para HDFS com metastore no Hive.
  • Importar do HDFS paraa o MySQL.
  • Executando trabalhos do Sqoop.

Pipeline de Dados.

  • Criando pipelines de processos Sqoop.
  • Importação Incremental.
  • Append.

Sqoop e HBase

  • Comandos específicos para HBase.

Sqoop e Oozie

  • Automação de jobs Sqoop com Oozie.

Otimização e assuntos gerais do Sqoop

  • Otimização de jobs Sqoop.
  • Parâmetros de desempenho.
  • Técnicas de tunning.
  • Troubleshooting.

Carga Horária:

  • 4 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.
  • Conhecimento Básico em Hadoop e Banco de Dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Sqoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Sqoop e cursos Apache Sqoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Log in