Grafana

Marcio Junior Vieira

Marcio Junior Vieira

  • 27 anos de experiência em TI, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Atuou como Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo e do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Atuou como Pesquisador pelo UFG/CIAP (Centro de Colaboração Interinstitucional de Inteligência Artificial Aplicada às Políticas Públicas) e no grupo Latitude (Laboratório de Tecnologias da Tomada de Decisão) da UNB.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática (2004) e pós-graduado em Software Livre (2005) ambos pela UFPR.
  • Palestrante FLOSS em: The Developers Conference (TDC), FISL, Latinoware, Campus Party, Pentaho Day, Ticnova, PGConf Brasil e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas edições de 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e Kafka.
  • Contribuidor de projetos Open Source ou Free Software internacionais, tais como Pentaho, LimeSurvey, SuiteCRM, Camunda, Operaton e Apache Hop.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com Activiti, Flowable, Camunda e Operaton.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).

URL do seu site:

Hacking DevOps Program

Programa de Capacitação e Desenvolvimento para times de profissionais de DevOps.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time Devops e atender a profissionais como Data Scientists, Data Engineers, Engineers Analytics e Data Analyst assim como dar suporte para times de infraestrutura de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - Infraestrutura
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Total de horas de capacitação: 88 Horas


 

Leia mais...

Treinamento Trino - Distributed SQL query engine

Sobre o Treinamento.

Este treinamento capacita os alunos para com o software Trino. O Trino é um mecanismo de consulta distribuído para BIG DATA usando a linguagem de consulta SQL. Sua arquitetura permite que os usuários consultem fontes de dados como Hadoop, Cassandra, Kafka, AWS S3, Alluxio, MySQL, MongoDB e Teradata, e permite o uso de várias fontes de dados em uma consulta. o mesmo é um fork do PrestoDB.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Empregar o Trino em conceitos-chave para otimizar os sistemas de BIG DATA modernos.
  • Executar armazéns de escala de exabyte.
  • Clone os dados para um sistema de armazenamento de dados proprietário.
  • Configurar os principais recursos do Trino.
  • Utilizar as opções da interface do usuário do Trino.
  • Conectar-se com ferramentas de visualização.

Público-alvo.

Este treinamento é direcionado para as seguintes profissionais:

  • Engenheiros de infraestrutura de big data.
  • Engenheiro de Dados.
  • Desenvolvedores.
  • Cientistas de Dados.

Dificuldade.

Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Trino 475 e foi modificado pela última vez em 10 de Maio de 2025.

Conteúdo Programático

Introdução e conceituais.

  • SQL ANSI.
  • Query Engines.
  • O que é o Trino.
  • Arquitetura do Trino.
  • Recursos e benefícios do Trino.
  • Comparação com outras ferramentas de processamento de dados.
  • Licenciamento (Free Software X Open Source).
  • Empresas usando Trino no mundo.
  • Empresas usando Trino no Brasil.
  • Versões do Trino.
  • Trino X PrestoDB X Hive.
  • Comunidade Trino no Brasil e no Mundo.
  • Casos de Uso.
  • Livros, sites, documentação e referências complementares.

Instalação e Configuração.

  • Requisitos de hardware e software.
  • Instalação do Trino em diferentes sistemas operacionais.
  • Configuração básica do Trino.

Modelagem de Dados e Consultas

  • SQL Statement Syntax.
  • Tipos de dados suportados pelo Trino.
  • Modelagem de dados no Trino.
  • Consultas SQL básicas no Trino.
  • Consultas SQL avançadas no Trino.
  • Consultas distribuídas no Trino.
  • Filtrando dados.
  • Migrando fontes de dados.
  • Trabalhando com bandas de bolllinger.
  • Benchmarking com TCHP.
  • Trabalhando com conectores.

Administração e Gerenciamento de Cluster

  • Web Interface.
  • Tuning Trino.
  • Properties Reference.
  • Conceitos de gerenciamento de cluster no Trino.
  • Configuração de um cluster Trino.
  • Adição e remoção de nós do cluster.
  • Monitoramento e solução de problemas do cluster.

Integração com outras Ferramentas

  • Driver JDBC para Trino.
  • Integração com ferramentas de armazenamento de dados, como Hadoop HDFS, Amazon S3, Minio, e outros
  • Integração com ferramentas de processamento de dados, como Apache Spark e Apache Flink.
  • Integração com ferramentas de Business Intelligence e ETL (Pentaho, Hop).

Segurança

  • Configuração de segurança.
  • Password File Authentication.
  • Authorization.

API

  • HTTP Connector
  • Trino Client REST API.
  • Trino Worker REST API.
  • SerializedPage Wire Format.

Uso Avançado

  • Uso de funções personalizadas no Trino.
  • Uso de UDFs (User-Defined Functions) no Trino.
  • Uso de recursos avançados de segurança, como a criptografia de dados.
  • Uso do Trino em ambientes de produção.

Práticas recomendadas

  • Melhores práticas para modelagem de dados e consultas no Trino.
  • Melhores práticas para gerenciamento de cluster no Trino.
  • Melhores práticas para integração com outras ferramentas.
  • Melhores práticas para uso avançado do Trino.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

Este treinamento pressupõe que o aluno seja competente com as seguintes ferramentas, tecnologias e conceitos:

  • Conhecimento básico em Banco de Dados e SQL.
  • Conhecimento Básico no Ecossistema de Big Data.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Trino e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • O treinamento apresenta uma empresa fictícia que necessita analisar dados de suas áreas e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Trino e cursos Trino. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores



Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Drools Business Rules Management System (BRMS)

O treinamento Drools prepara profissionais para o processo de gerenciamento de regras de negócio. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções complexas em ambientes com larga escala em suas aplicações.
Todo o treinamento e ministrado sobre a versões Community do Drools com Materiais em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Instalar e configurar o setup para utilizar o Drools.
  • Entender o Design Rules,
  • Implementar regras no Drools.
    • Compreender o mecanismos de regras.
    • Entender as sintax de regras.
    • Executar regras.
  • Integrar aplicações ao BRMS Drools.
  • Implantação regras sem compilar.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando Drools 8.44.0 e foi modificado pela última vez em 6 de Dezembro de 2023.

Conteúdo Programático.

Conceitual.

  • Mecanismo de regras.
  • Business Rules Management System (BRMS)
  • Intelligent Automation.
  • Casos de uso BRMs.
  • Decision Model and Notation (DMN).
  • Decision Requirements Diagram (DRD).
  • O Projeto Drools.
  • Histórico do Drools.
  • Red Hat.
  • Motivações para criação do Drools.
  • Empresas usando Drools no Mundo.
  • Empresas usando Drools no Brasil.
  • Community X Enterprise.

Instalação e Setup com Drools.

  • Pré-requisitos.
  • Compilando o Drools.
  • Workbench.
  • KIE Server.
  • Eclipse IDE.
  • Drools Eclipse plugin.
  • Drools CLI.

Primeiros passos.

  • Criando um projetos de regras.
  • Maven archetype.
  • Decision Services.
  • Usando a DMN.
  • KIE DMN Editor.
  • DMN Information Requirement.
  • DMN custom data types.
  • Configurando o Maven (pom.xml)
  • Testando com curl.

Conceitos do Drools.

  • Stateless Session.
  • Statelessfull Session.
  • Rule Template.

Domain Specific Language (DSL).

  • Substituindo regras por DSL.
  • Testando regras DSL.

Drools Rule Engine.

  • Design Rules.
  • Rules.
  • Facts.
  • Production memory.
  • Working memory.
  • Agenda.
  • Inference and truth.
  • Stated insertions.
  • Logical insertions.
  • Atributos de regras (salience, no-loop, lock-on-active).
  • Activation groups.
  • Fact propagation modes.
  • Phreak rule algorith.
  • Rule base configuration.
  • Complex event processing (CEP).
  • Negative patterns.
  • Session clock.
  • Sliding windows.
  • rule engine queries and live queries.
  • Melhores práticas de regras.

Drools Rule Language (DRL)

  • Arquivo DRL.
  • Syntax (nova X tradicional).
  • DRL Packages.
  • Rule unit.
  • Rule unit use case.
  • Import statements.
  • Type declarations and metadata.
  • Enumerative type declarations.
  • Extended type declarations.
  • Queries em DRL.
  • Rule conditions.

DMN.

  • DMN conformance levels.
  • DMN decision requirements diagram (DRD).
  • FEEL.
  • Rule expressions - FEEL.
  • DMN decision logic.
  • DMN decision tables.
  • DMN model.

KIE (Knowledge Is Everything) API.

  • Kie Project.
  • KieContainer.
  • KieServices.
  • KieSession.
  • KieBase.
  • kmodule.xml
  • kbase Attributes.
  • Engine dependency.
  • KieModule programmatically.
  • KieFileSystem.
  • Result Severity
  • KieScanner.

Drools Event Model.

  • KieRuntimeEventManager.
  • RuleRuntimeEventManager.
  • EventListener.
  • DebugRuleRuntimeEventListener.
  • KieRuntimeEvent.
  • KieRuntimeLogger.
  • FileLogger.
  • ExecutionResults.

Drools Commands.

  • StatelessKieSession.
  • KBatchExecutionCommand.
  • ModifyCommand.
  • InsertElementsCommand.
  • FireAllRulesCommand.

BMPs.

Teste de Regras.

  • Testando com KIE.
  • Testando com JUnit.
  • Simulação de regras.

Assuntos Complementares.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico em desenvolvimento java.
  • Conhecimento básico em Apache Maven.
  • Conhecimento básico em git.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 30GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Drools e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos Drools e Cursos Drools. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento XWiki - Open Source Enterprise Wiki

O treinamento XWiki Open Source Enterprise Wiki é destinado há para quem precisa conhecer o fundamental do XWiki para implantar uma solução de Wiki Corporativa. O curso permite desde o uso do XWiki no dia a dia de usuários colaborando com conteúdos e com suas principais funcionalidades, até funções mais avançadas como integrações e desenvolvimentos de extensões e a administração do software.

Todo o treinamento e ministrado sobre a versão Community do XWiki
em Português do Brasil com Ambiente de educação e metodologia de ensino personalizada.

Calendário de turmas abertas .

Somente turmas in-company.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o XWiki 15.10.10 e foi modificado pela última vez em 05 de Junho de 2024.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação do XWiki.
  • Configuração de templates.
  • Customização de páginas.
  • Administração do Ambiente.
  • Instalar um XWiki baseado em conteiners Docker.
  • Escalar aplicações.
  • Aplicar níveis de segurança no XWiki.
  • Customizar Extensões para XWiki.

Conteúdo Programático

Conceitual - Visão geral da Plataforma XWiki

  • Introdução ao conceito global de Wiki.
  • Introdução ao XWiki.
  • Arquitetura e Tecnologias utilizadas.
  • Histórico da XWiki.
  • Interfaces do XWiki.
  • Empresas usando XWiki no Mundo.
  • Empresas usando XWiki no Brasil.
  • Licenciamento do XWiki e tipos de licenças.
  • XWiki X MediaWiki.

Instalação do XWiki.

  • Básico de Docker para XWiki.
  • Preparação do ambiente de instalação.
  • Requisitos mínimos de configuração.
  • Principais decisões de arquitetura (Cloud, on-premises, etc).
  • Instalação do XWiki no Linux.
  • Configurações e propriedades globais.
  • Configurações de e-mail
  • Memória Java do Container Tomcat Java J2EE.
  • Formas de Acesso (Share, FTP, Explorers, etc).
  • Adicionando sua identidade visual e alterando detalhes do Layout

Funcionalidades do XWiki para Usuários

  • Navegação em sua instância XWiki (espaço, subespaço, página, etc.)
  • Estruturas do XWiki.
  • Criação e edição colaborativa de páginas wiki (editor WYSIWYG, macros);
  • Gerenciamento do histórico e controle de versão da sua página.
  • Criando links entre páginas.
  • Gerenciando documentos do Office.
  • Colaboração in-page (comentários, anotações, etc.);
  • Usando um aplicativo simples: blog;
  • Personalização do perfil do usuário;
  • Acompanhar a atividade (favoritos, fluxo de atividades);

Administrando a Plataforma XWiki.

  • Configurando o idioma padrão.
  • Gerenciando usuários e grupos.
  • Right management.
  • Editar a aparência.
  • Personalizar o layout.
  • Configurar e atualizar aplicativos Open Source.
  • Criação de novos wikis;

Autenticação e Segurança.

  • Overview de autenticação.
  • Modelo de segurança.
  • Papeis e usuários
  • Grupos e subgrupos.
  • Hierarquia de permissões.

Pesquisas Avançadas.

  • Apache Lucene
  • Pesquisas Lucene.

Arquitetura do XWiki.

  • Data Model.
  • Classes, Objects, e Properties.
  • Apache Tomcat.
  • Database Schema.
  • Apache Solr.
  • Extending XWiki.

Template Engine - Velocity.

  • O Projeto Apache Velocity.
  • Java-based template engine.
  • Velocity Template Language (VTL).
  • Hello Velocity World!
  • Variáveis.
  • Propriedades.
  • Métodos.
  • Property Lookup Rules.
  • Rendering
  • Index Notation.
  • Directives.
  • Literals.
  • If / ElseIf / Else.
  • Relational and Logical Operators.
  • Foreach Loop.
  • Velocimacros.
  • Script Services.
  • Features and Miscellany.
  • Groovy scripting.

Groovy Script.

  • O Projeto Apache Groovy.
  • full-fledged scripting language.
  • XWiki Component Access.

HQL.

  • Public API (searchDocuments).
  • Simple Query.
  • Ordered Query.
  • Advanced Query (date & time).
  • Privileged API (search).
  • Count Query.
  • Simple Query with multiple fields.
  • Objects of a specific class.
  • List users.
  • List attachments of a page.
  • Simple Query with multiple fields.

API.

  • Dataset.
  • Interagindo com XWiki RESTful API.
  • Authentication.
  • CSRF Token.
  • Sending representations.
  • PUT vs POST.
  • Headers.
  • Root resources.
  • Query API.
  • Localization resources.
  • Icon Theme resources.
  • Custom resources.

Extensões para XWiki.

  • Scripts
  • Java API.
  • Macros.
  • Skins
  • Skin Themes.
  • Skin Extensions.

Migrações.

  • Migrando de Confluence para XWiki.
  • Confluence Migrator.

Backups e Exportação.

  • Exportando conteúdos em XAR.
  • Importando conteúdos em XAR.
  • Métodos de Backup.
  • Ferramentas de Backup.

Carga Horária.

  • 32 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou Mac OS).
  • Conhecimento básico de banco de dados.
  • Conhecimento Básico em tecnologias de Front-End (HTML, CSS, JSON, JavaScript)
  • Conhecimento básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares XWiki e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • O treinamento apresenta uma empresa fictícia chamada "CloudWiki" onde será implantado o XWiki e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos XWiki e cursos XWiki. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores



Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutores

Leia mais...

Treinamento Bonita Open Source BPM

Este treinamento Bonita BPM é voltado para usuários e desenvolvedores que pretendem conhecer o processo de implementação de workflows na Ferramenta Bonita BPM. Todo o treinamento é ministrado sobre a versão Community do Bonita, repassando conhecimentos sobre conceitos de Workflow e Business Process Management (BPM) os componentes do Bonita BPM Plataform.

O Bonita, é um motor de fluxo de trabalho (Workflow) de código aberto escrito em Java que pode executar processos de negócios descritos no BPMN 2.0.

  • Plataforma aberta e moderna BPM permite flexibilidade para automatizar, personalizar e adaptar rapidamente os processos de negócio.
  • Ferramentas gráficas tornando mais fácil para usuários menos técnicos para projetar e ajustar os processos de negócios, agilizando implementação de aplicativos e alinhamento dos negócios.
  • Processos e formas em bibliotecas reutilizáveis que permitem montagem, aplicação rápida e simples e ao mesmo tempo garantir as melhores práticas e padrões à empresa são incorporadas.

Nosso conteúdo programático que foi construído para formação de consultores na plataforma de Bonita BPM, O mesmo mescla conhecimentos conceituais de Workflow, BPM, Modelagem de Processos e uma introdução ao ECM (Alfresco), assim como, necessidades de infraestrutura, integração e programação, necessários para implementação completa do Software Bonita.

Dificuldade: Média.

Aplicabilidade:

Este treinamento foi desenvolvido usando o Bonita Community 2023.2-u0 e foi modificado pela última vez em 22 de Maio de 2024.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação do Bonita.
  • Desenvolver fluxos de processos usando a metodologia BPM e notação BPMN.
  • Integrar os processos a aplicações externas.
  • Orquestrar processos.
  • Administração do Ambiente.
  • Escalar aplicações.
  • Aplicar níveis de segurança no Bonita.

Conteúdo Programático.

Conceitual.

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução a Notação BPMN.
  • Principais Elementos da Notação BPMN.
  • O Projeto Bonita BPM.
  • Histórico do Bonita.
  • Bonita X Activiti X Camunda X Flowable.
  • Versões do Bonita.
  • Licenciamento.

Instalação do Bonita BPM.

  • Instalação do Bonita Studio.
  • Instalação do Bonita Community Server.
  • Instalando o bundle.
  • Configurando o bundle.

UI do Bonita.

  • Menus.
  • Sub Menus.
  • Primeiros passos na ferramenta.

Criando Processos no Bonita.

  • Configuração Inicial do Bonita Studio.
  • Telas.
  • Desenho do primeiro processo.
  • Pool
  • Lanes.
  • Atores.
  • Organizações.
  • Exportando um processo.
  • Versionamento.
  • Importando organizações.
  • Importando um processo.
  • Testando o processo.

Segurança.

  • Controle de acessos
  • Usuários e Grupos.
  • Sistema de permissões.
  • Formas de Integração com LDAP.

Conectores.

  • Conceito de Conectores.
  • E-mail.
  • Banco de dados.
  • Relatórios.
  • GED.
  • Conceitual do GED Alfresco.
  • Integração com Alfresco.

Administração do Ambiente Bonita.

  • Colocando o Bonita em produção.
  • Tuning.
  • Geração automática de cache.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em Conceitos de Processos.
  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux).
  • Conhecimento Básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de Hardware.

  • Memória RAM: 4GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Bonita Community e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Bonita e cursos Bonita. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache ORC

Sobre o Treinamento

Apache ORC é um formato de armazenamento de dados orientado a colunas gratuito e de código aberto. É semelhante a outros formatos de arquivo de armazenamento colunar disponíveis no ecossistema Hadoop, como RCFile e Parquet. Seu conteúdo programático oferece uma estrutura abrangente para um treinamento sobre Apache ORC, abordando desde os conceitos básicos até técnicas avançadas e aplicação prática em projetos.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Apache ORC.

  • O que é Apache ORC?
  • Vantagens e benefícios do uso do Apache ORC.
  • História e evolução do Apache ORC.
  • Empresas usando Apache ORC no Brasil
  • Apache ORC X Apache Parquet X RCFile.

Estrutura Interna do Apache ORC.

  • Visão geral da estrutura de arquivo ORC.
  • Compreensão dos tipos de dados suportados.
  • Exploração da compactação e codificação de dados.
  • ACID support.
  • Types.
  • Indexes.

Configuração e Instalação

  • Instalação do Apache ORC em diferentes ambientes (local, cluster, cloud).
  • Configuração inicial e ajustes recomendados.
  • Building ORC.

Escrita de Dados no Formato ORC.

  • Como escrever dados no formato ORC usando diversas linguagens (Python, Java, etc.).
  • Melhores práticas para otimização da escrita.
  • ORC Adopters.

Leitura de Dados no Formato ORC

  • Como ler dados ORC em diferentes ambientes e linguagens.
  • Otimização da leitura de dados.

Otimização e Desempenho

  • Estratégias para otimizar consultas em dados ORC.
  • Uso de índices e estatísticas para melhorar o desempenho.

Compactação e Particionamento

  • Estratégias para compactação eficiente de dados ORC.
  • Particionamento de dados para melhorar o desempenho.

Integração com Ferramentas de Big Data

  • Integração do Apache ORC com ecossistemas de Big Data como Hadoop e Spark.
  • Uso de ORC em pipelines de dados.
  • Java Tools.
  • Hive DDL.
  • Hive Configuration.

Casos de Uso Avançados

  • Estudos de caso avançados de uso do Apache ORC em ambientes reais.
  • Migração de dados para o formato ORC.
  • Spark DDL.
  • Spark Configuration.

Projeto Prático

  • Desenvolvimento de um projeto prático utilizando o Apache ORC.
  • Implementação de técnicas aprendidas ao longo do curso.

Carga Horária:

  • 16 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache ORC e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache ORC e cursos  Apache ORC. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Kudu

Sobre o Treinamento

O HUE (Hadoop User Experience) é uma interface de usuário web que facilita o uso do ecossistema Hadoop para processamento de big data. Este treinamento fundamental em HUE prepara profissionais para explorar e utilizar eficientemente as ferramentas do Hadoop para análise e processamento de dados em larga escala. Seu conteúdo programático foi desenvolvido para capacitar os participantes a dominar as técnicas essenciais necessárias para lidar com big data de forma eficaz.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Opensearch.

Instalação do Opensearch.

Fundamentos do Opensearch

  • Arquitetura do Opensearch.
  • Sharding.
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Admin UI.
  • Adicionando conteúdo ao Opensearch.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

 Índices no Opensearch.

  • Introdução aos índices no Opensearch.
  • Estrutura de um índice: documentos, shards e réplicas.
  • Criação de um índice
  • Configurações de índice e mapeamento de tipos.
  • Indexação de documentos
  • Tokenização.
  • Normalização.
  • Encontrando a raiz das palavras.
  • Stopwords.
  • Sinônimos.
  • Erros ortográficos
  • Analysis.
  • Index Shard Allocation.
  • Index blocks.
  • Mapper.
  • Merge.
  • Similarity module.
  • Slow Log.
  • Index Sorting.

Configurações do Opensearch.

  • Introdução às configurações no Opensearch.
  • Arquivo de configuração Opensearch.yml.
  • Configuração de armazenamento (caminho de dados e log).
  • Configuração de plugins e módulos.
  • Configuração de indexação e busca.
  • Configuração de idioma.

Cluster

  • O modelo distribuído.
  • Configuração de um cluster Opensearch.
  • Configurações de rede e descoberta de nós.
  • Shards: número, tamanho e alocação
  • Réplicas e alta disponibilidade.

API

  • API Opensearch.
  • EQL search APIs.
  • Data stream APIs

Opensearch e Java

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Java client.
  • Conectando ao Opensearch.
  • Java Low Level REST Client.
  • Indexando documentos.

Logstash

  • Instalação e Configuração.
  • Inputs, Filters, and Outputs.
  • Backup and restore.
  • Melhores práticas.

Openseach Dashboard

  • Instalação e configuração.
  • Time Picker, Search, and Filters.
  • Opensearch Discover, Visualization, and Dashboard Interfaces.
  • Backup and restore
  • Melhores práticas.

Monitoramento

  • Monitoramento.
  • Desdobramento, desenvolvimento.
  • Manutenção e otimização básica.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Opensearch e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Opensearch e cursos Opensearch. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Ranger

Sobre o Treinamento

Neste treinamento vamos explorar o Apache Ranger como uma solução central para controle de acesso e auditoria em ambientes Hadoop e outras ferramentas do ecossistema de Big Data. O foco será prático, com instalação e configuração do Apache Ranger, e integração com ferramentas como Apache Atlas, Elasticsearch e Kibana já pré-configuradas em uma máquina virtual fornecida pela Ambiente Livre.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Instalar e configurar o Apache Ranger em ambientes Big Data.
  • Compreender a arquitetura do Ranger e o papel de cada componente.
  • Criar políticas de segurança para Hive, HDFS, Kafka, entre outros serviços.
  • Controlar acessos por usuários, grupos, IPs e condições avançadas.
  • Criar e aplicar políticas dinâmicas baseadas em tags com Apache Atlas.
  • Navegar e configurar o Ranger Admin UI.
  • Integrar o Ranger com sistemas de autenticação como LDAP ou AD.
  • Visualizar e auditar logs de acesso no Kibana com dados do Elasticsearch.
  • Utilizar o Ranger com integração com o Apache Atlas.
  • Aplicar boas práticas e segurança em ambientes distribuídos.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Avançado

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Ranger 2.6.0 e foi modificado pela última vez em 31 de maio de 2025.

Conteúdo Programático.

Conceitual Apache Ranger.

Instalação e Configuração.

  • Requisitos de instalação.
  • Instalando o Apache Ranger Server.
  • Configuração inicial do Ranger Admin.
  • Integração com Banco de Dados externo (MySQL/PostgreSQL).
  • Inicializando o serviço do Ranger.
  • Configuração via arquivos .xml e install.properties

Fundamentos do Apache Ranger

  • Introdução ao Console Admin Web.
  • Perfis, políticas e permissões.
  • Criação de usuários, grupos e roles.
  • Integração com LDAP/Active Directory.
  • Políticas baseadas em recursos (Resource-Based Policies).
  • Políticas baseadas em tags (Tag-Based Policies).
  • Auditoria e logs de acesso.
  • Workflows de aprovação (com Ranger KMS).

Integração com Sistemas de Big Data.

  • HDFS Plugin: políticas e permissões de arquivos.
  • Hive Plugin: controle de acesso a databases, tabelas e colunas.
  • Kafka Plugin: controle de acesso por tópicos e consumidores.
  • YARN, Knox, HBase, Solr: conceitos e exemplos de políticas.
  • Integração com Apache NiFi.
  • Integração com Trino e Presto.
  • Plugins vs. Agentes Externos: modos de operação.

Gerenciamento de Políticas.

  • Criação e gerenciamento de políticas no console.
  • Clonagem e herança de políticas.
  • Wildcards e expressões regulares em políticas.
  • Auditoria e trilha de acesso: revisão e análise.
  • Exportação e importação de políticas.
  • Gerenciamento de múltiplos repositórios.
  • Controle por tempo e condições (políticas dinâmicas).

Ranger KMS (Key Management Service)

  • Introdução à Criptografia de Dados em Descanso (Encryption at Rest).
  • Arquitetura do Apache Ranger KMS.
  • Criação e gerenciamento de chaves.
  • Integração com HDFS, Hive e HBase.
  • Auditoria de uso de chaves.
  • Políticas de acesso a chaves e rotação automática.

Auditoria e Monitoramento

  • Configuração do Ranger Audit.
  • Armazenamento de logs em Apache Solr, HDFS ou Elasticsearch.
  • Integração com Kibana para visualização de eventos
  • Alertas e notificações baseados em logs de auditoria.
  • Boas práticas de retenção e análise de logs.
  • Integração com sistemas SIEM.

Melhores Práticas e Manutenção

  • Backup e restauração do Ranger Admin.
  • Atualizações e upgrades de versão.
  • Segurança do próprio Ranger Admin (HTTPS, firewalls).
  • Hardening do Ranger Server.
  • Performance tuning.
  • Troubleshooting de plugins.
  • Ranger em ambientes de alta disponibilidade (HA).

Tópicos Gerais.

Carga Horária:

  • 16 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em governança de dados 
  • Conhecimento básico no ecossistema de Big Data e Apache Atlas.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Ranger e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Ranger e cursos Apache Ranger. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Sqoop

Sobre o Treinamento

O Apache Sqoop é uma interface de linha de comando para mover dados de bancos de dados relacionais e Hadoop. O treinamento Apache Sqoop prepara profissionais a implantar , integrar e criar pipeline de dados.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Sqoop.

Instalação do Sqoop.

Fundamentos do Sqoop

Executando o Sqoop.

  • Sqoop CLI.
  • Comando Sqoop.
  • Conexão com bancos de dados.
  • Configuração de drivers JDBC.
  • Comandos básicos de importação.
  • Parâmetros de configuração.
  • Importar MySQL para HDFS.
  • Importar MySQL para HDFS com metastore no Hive.
  • Importar do HDFS paraa o MySQL.
  • Executando trabalhos do Sqoop.

Pipeline de Dados.

  • Criando pipelines de processos Sqoop.
  • Importação Incremental.
  • Append.

Sqoop e HBase

  • Comandos específicos para HBase.

Sqoop e Oozie

  • Automação de jobs Sqoop com Oozie.

Otimização e assuntos gerais do Sqoop

  • Otimização de jobs Sqoop.
  • Parâmetros de desempenho.
  • Técnicas de tunning.
  • Troubleshooting.

Carga Horária:

  • 4 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.
  • Conhecimento Básico em Hadoop e Banco de Dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Sqoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Sqoop e cursos Apache Sqoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Atlas

Sobre o Treinamento

O Apache Atlas é uma solução de governança de dados para o ecossistema Hadoop, permitindo a catalogação, classificação e rastreamento de metadados em ambientes de Big Data. Este treinamento fundamental em Apache Atlas prepara profissionais para explorar e utilizar eficientemente suas ferramentas para gerenciar linhagem de dados, garantir conformidade e facilitar a descoberta de informações. O conteúdo programático foi desenvolvido para capacitar os participantes a dominar as técnicas essenciais necessárias para implementar uma governança de dados robusta e eficaz.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade: Alta.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Atlas 2.4.0. e foi modificado pela última vez em 2 de Março de 2025.

Conteúdo Programático.

Conceitual Apache Atlas.

Instalação do Apache Atlas.

  • Requisitos de Sistema.
  • Instalando o Apache Atlas standalone.
  • Configuração inicial.
  • Iniciando o servidor Atlas.
  • Verificando logs e diagnósticos.
  • Carregando dados de exemplo.

Fundamentos do Apache Atlas.

  • Arquitetura do Apache Atlas.
  • Componentes principais: Metadata Server, Kafka, JanusGraph.
  • Tipos de Metadados: Técnico, Empresarial, Operacional.
  • Introdução ao Modelo de Entidade (Entity, Type, Classification)
  • UI do Apache Atlas: Navegação e Recursos.

Modelagem de Metadados.

  • Introdução à Modelagem de Metadados.
  • Definição de Tipos e Entidades.
  • Entity
  • Relationship.
  • Classification.
  • Classification Propagation.
  • Attributes.
  • Data Lineage.
  • Criando e editando tipos personalizados.
  • Relacionamentos e Heranças.
  • Trabalhando com Linhagem de Dados.
  • Importação de Modelos de Metadados.

Indexação e Pesquisa.

  • Introdução à Pesquisa no Apache Atlas.
  • Uso da linguagem DSL (Domain-Specific Language).
  • Pesquisa por entidades, classificações e relacionamentos.
  • Filtros avançados: wildcards, intervalos, operadores.
  • Busca em grandes catálogos de dados.
  • Integração com Apache Solr/Elasticsearch.

Configurações do Apache Atlas

  • Configurações Básicas: atlas-application.properties.
  • Configuração de Banco de Dados: JanusGraph e HBase.
  • Integração com Kafka: Atualizações de Metadados em tempo real.
  • Configuração de Segurança: Autenticação e Autorização.
  • Auditoria: Habilitando e gerenciando logs de auditoria

Integração com Big Data

APIs do Apache Atlas.

  • Introdução às APIs REST do Apache Atlas.
  • Autenticação e Tokens.
  • Criando, atualizando e deletando entidades via API
  • Consultas via API: busca de metadados.
  • Exemplo prático: Criando um catálogo de dados automatizado.

Apache Atlas e Java

  • Visão Geral da Integração com Java.
  • Configuração do ambiente (Maven, Gradle).
  • Uso do Atlas Client API.
  • Criando e atualizando entidades via código.
  • Exemplos práticos: automação de processos.

Monitoramento

  • Monitoramento do Apache Atlas: Métricas e Logs.
  • Troubleshooting: Diagnóstico de erros comuns.
  • Backup e Restore de Metadados.
  • Estratégias de otimização para catálogos grandes.
  • Melhores práticas de governança de dados.

Carga Horária:

  • 24 Horas de duração.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico no ecossistema de Big Data.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Atlas e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Atlas e cursos Apache Atlas. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Log in