Activiti BPM

Marcio Junior Vieira

Marcio Junior Vieira

  • 27 anos de experiência em TI, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Atuou como Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo e do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Atuou como Pesquisador pelo UFG/CIAP (Centro de Colaboração Interinstitucional de Inteligência Artificial Aplicada às Políticas Públicas) e no grupo Latitude (Laboratório de Tecnologias da Tomada de Decisão) da UNB.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática (2004) e pós-graduado em Software Livre (2005) ambos pela UFPR.
  • Palestrante FLOSS em: The Developers Conference (TDC), FISL, Latinoware, Campus Party, Pentaho Day, Ticnova, PGConf Brasil e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas edições de 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e Kafka.
  • Contribuidor de projetos Open Source ou Free Software internacionais, tais como Pentaho, LimeSurvey, SuiteCRM, Camunda, Operaton e Apache Hop.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com Activiti, Flowable, Camunda e Operaton.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).

URL do seu site:

Hacking Data Driven Program

Programa de Capacitação e Desenvolvimento para times de profissionais de dados.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time de dados e atender a profissionais como Data Scientists, Data Engineers, Analytics Engineer e Data Analyst assim como dar suporte para times de infraestrutura ou DevOps de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - DevOps para Big Data.

Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Automação e Orquestração de Ambientes

Armazenamento de Objetos para Data Lakes

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Trilha - Data Engineer.

Esta trilha e voltada para profissionais responsáveis por manter e organizar toda a arquitetura para dados do ambiente de Big Data.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Armazenamento e Processamento Distribuído

Ingestão e Streaming

Formatos de Armazenamento Colunar

Data Lake Table Formats

Data Orchestration & ETL Pipelines

Search Engines

NoSQL & Big Data Storage

NoSQL & Cache

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Analyst.

Esta trilha foca em profissionais que atuarão no tratamento, apresentação e análise dos dados, sem as complexidades de um Data Scientist, mas com todo potencial para análise quantitativa e estatística através de técnicas e ferramentas tradicionais como Business Intelligence, OLAP, metadados, reports e dashboards
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

SQL Query Engines

Data Visualization & BI

Data Exploration & Query Assistants

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Scientist.

Esta trilha e voltada para profissionais que já tenham uma vivência com dados e vão evoluir agora no tratamento mais aprofundado usando técnicas de Inteligencia Artificial, Machine Learning e Deep Learning.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Machine Learning & Data Mining

Ambientes Interativos e Notebooks

Linguagens e Ferramentas de Análise Estatística

Deep Learning e Frameworks

Gerenciamento e Orquestração de Modelos de ML

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento de alguma linguagem de programação.
  • Conhecimento em banco de dados e SQL.
  • Conhecimento básico de estatística.

Trilha - Analytics Engineer.

Esta trilha e para especialista em Data Analytics que queiram ampliar seus conhecimentos para nova área que está se formando voltada a engenharia analítica. Esta trilha é uma ligação entre a trilha de engenharia de dados e a trilha de análise de dados.

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Trilha - Data Governance.

Esta trilha e para especialista em governança de dados e segurança de dados, capacita profissionais para definir, implementar e manter políticas de governança, segurança, catálogo e qualidade dos dados.
Atenção: Na maioria dos casos você pode selecionar apenas um software de cada categoria pois eles concorrem diretamente na montagem da sua Stack de dados.

Catálogo de Dados e Metadados

Segurança e Governança de Acesso a Dados

Pré-requisitos da trilha:

  • Conhecimento em lógica de programação.
  • Conhecimento em banco de dados e SQL.

Leia mais...

Hacking DevOps Program

Programa de Capacitação e Desenvolvimento para times de profissionais de DevOps.

Este programa foi elaborado para acelerar o processo de desenvolvimento de time Devops e atender a profissionais como Data Scientists, Data Engineers, Engineers Analytics e Data Analyst assim como dar suporte para times de infraestrutura de Big Data. As capacitações são divididas em trilhas que podem ser seguidos pela squads dentro das empresas para alavancar a alta performance das equipes de dados.


Trilha - Infraestrutura
Esta trilha apoia profissionais de infraestrutura para se especializar em ferramentas de conteinerização e automação de infraestrutura, focado em necessidades de times de dados.

Pré-requisitos da trilha:

  • Conhecimento básico em redes.
  • Conhecimento básico de GNU/Linux.
  • Conhecimento básico de programação/scripts.

Total de horas de capacitação: 88 Horas


 

Leia mais...

Treinamento Trino - Distributed SQL query engine

Sobre o Treinamento.

Este treinamento capacita os alunos para com o software Trino. O Trino é um mecanismo de consulta distribuído para BIG DATA usando a linguagem de consulta SQL. Sua arquitetura permite que os usuários consultem fontes de dados como Hadoop, Cassandra, Kafka, AWS S3, Alluxio, MySQL, MongoDB e Teradata, e permite o uso de várias fontes de dados em uma consulta. o mesmo é um fork do PrestoDB.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Empregar o Trino em conceitos-chave para otimizar os sistemas de BIG DATA modernos.
  • Executar armazéns de escala de exabyte.
  • Clone os dados para um sistema de armazenamento de dados proprietário.
  • Configurar os principais recursos do Trino.
  • Utilizar as opções da interface do usuário do Trino.
  • Conectar-se com ferramentas de visualização.

Público-alvo.

Este treinamento é direcionado para as seguintes profissionais:

  • Engenheiros de infraestrutura de big data.
  • Engenheiro de Dados.
  • Desenvolvedores.
  • Cientistas de Dados.

Dificuldade.

Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Trino 475 e foi modificado pela última vez em 10 de Maio de 2025.

Conteúdo Programático

Introdução e conceituais.

  • SQL ANSI.
  • Query Engines.
  • O que é o Trino.
  • Arquitetura do Trino.
  • Recursos e benefícios do Trino.
  • Comparação com outras ferramentas de processamento de dados.
  • Licenciamento (Free Software X Open Source).
  • Empresas usando Trino no mundo.
  • Empresas usando Trino no Brasil.
  • Versões do Trino.
  • Trino X PrestoDB X Hive.
  • Comunidade Trino no Brasil e no Mundo.
  • Casos de Uso.
  • Livros, sites, documentação e referências complementares.

Instalação e Configuração.

  • Requisitos de hardware e software.
  • Instalação do Trino em diferentes sistemas operacionais.
  • Configuração básica do Trino.

Modelagem de Dados e Consultas

  • SQL Statement Syntax.
  • Tipos de dados suportados pelo Trino.
  • Modelagem de dados no Trino.
  • Consultas SQL básicas no Trino.
  • Consultas SQL avançadas no Trino.
  • Consultas distribuídas no Trino.
  • Filtrando dados.
  • Migrando fontes de dados.
  • Trabalhando com bandas de bolllinger.
  • Benchmarking com TCHP.
  • Trabalhando com conectores.

Administração e Gerenciamento de Cluster

  • Web Interface.
  • Tuning Trino.
  • Properties Reference.
  • Conceitos de gerenciamento de cluster no Trino.
  • Configuração de um cluster Trino.
  • Adição e remoção de nós do cluster.
  • Monitoramento e solução de problemas do cluster.

Integração com outras Ferramentas

  • Driver JDBC para Trino.
  • Integração com ferramentas de armazenamento de dados, como Hadoop HDFS, Amazon S3, Minio, e outros
  • Integração com ferramentas de processamento de dados, como Apache Spark e Apache Flink.
  • Integração com ferramentas de Business Intelligence e ETL (Pentaho, Hop).

Segurança

  • Configuração de segurança.
  • Password File Authentication.
  • Authorization.

API

  • HTTP Connector
  • Trino Client REST API.
  • Trino Worker REST API.
  • SerializedPage Wire Format.

Uso Avançado

  • Uso de funções personalizadas no Trino.
  • Uso de UDFs (User-Defined Functions) no Trino.
  • Uso de recursos avançados de segurança, como a criptografia de dados.
  • Uso do Trino em ambientes de produção.

Práticas recomendadas

  • Melhores práticas para modelagem de dados e consultas no Trino.
  • Melhores práticas para gerenciamento de cluster no Trino.
  • Melhores práticas para integração com outras ferramentas.
  • Melhores práticas para uso avançado do Trino.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

Este treinamento pressupõe que o aluno seja competente com as seguintes ferramentas, tecnologias e conceitos:

  • Conhecimento básico em Banco de Dados e SQL.
  • Conhecimento Básico no Ecossistema de Big Data.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Trino e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • O treinamento apresenta uma empresa fictícia que necessita analisar dados de suas áreas e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Trino e cursos Trino. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores



Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Drools Business Rules Management System (BRMS)

O treinamento Drools prepara profissionais para o processo de gerenciamento de regras de negócio. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções complexas em ambientes com larga escala em suas aplicações.
Todo o treinamento e ministrado sobre a versões Community do Drools com Materiais em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Instalar e configurar o setup para utilizar o Drools.
  • Entender o Design Rules,
  • Implementar regras no Drools.
    • Compreender o mecanismos de regras.
    • Entender as sintax de regras.
    • Executar regras.
  • Integrar aplicações ao BRMS Drools.
  • Implantação regras sem compilar.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando Drools 8.44.0 e foi modificado pela última vez em 6 de Dezembro de 2023.

Conteúdo Programático.

Conceitual.

  • Mecanismo de regras.
  • Business Rules Management System (BRMS)
  • Intelligent Automation.
  • Casos de uso BRMs.
  • Decision Model and Notation (DMN).
  • Decision Requirements Diagram (DRD).
  • O Projeto Drools.
  • Histórico do Drools.
  • Red Hat.
  • Motivações para criação do Drools.
  • Empresas usando Drools no Mundo.
  • Empresas usando Drools no Brasil.
  • Community X Enterprise.

Instalação e Setup com Drools.

  • Pré-requisitos.
  • Compilando o Drools.
  • Workbench.
  • KIE Server.
  • Eclipse IDE.
  • Drools Eclipse plugin.
  • Drools CLI.

Primeiros passos.

  • Criando um projetos de regras.
  • Maven archetype.
  • Decision Services.
  • Usando a DMN.
  • KIE DMN Editor.
  • DMN Information Requirement.
  • DMN custom data types.
  • Configurando o Maven (pom.xml)
  • Testando com curl.

Conceitos do Drools.

  • Stateless Session.
  • Statelessfull Session.
  • Rule Template.

Domain Specific Language (DSL).

  • Substituindo regras por DSL.
  • Testando regras DSL.

Drools Rule Engine.

  • Design Rules.
  • Rules.
  • Facts.
  • Production memory.
  • Working memory.
  • Agenda.
  • Inference and truth.
  • Stated insertions.
  • Logical insertions.
  • Atributos de regras (salience, no-loop, lock-on-active).
  • Activation groups.
  • Fact propagation modes.
  • Phreak rule algorith.
  • Rule base configuration.
  • Complex event processing (CEP).
  • Negative patterns.
  • Session clock.
  • Sliding windows.
  • rule engine queries and live queries.
  • Melhores práticas de regras.

Drools Rule Language (DRL)

  • Arquivo DRL.
  • Syntax (nova X tradicional).
  • DRL Packages.
  • Rule unit.
  • Rule unit use case.
  • Import statements.
  • Type declarations and metadata.
  • Enumerative type declarations.
  • Extended type declarations.
  • Queries em DRL.
  • Rule conditions.

DMN.

  • DMN conformance levels.
  • DMN decision requirements diagram (DRD).
  • FEEL.
  • Rule expressions - FEEL.
  • DMN decision logic.
  • DMN decision tables.
  • DMN model.

KIE (Knowledge Is Everything) API.

  • Kie Project.
  • KieContainer.
  • KieServices.
  • KieSession.
  • KieBase.
  • kmodule.xml
  • kbase Attributes.
  • Engine dependency.
  • KieModule programmatically.
  • KieFileSystem.
  • Result Severity
  • KieScanner.

Drools Event Model.

  • KieRuntimeEventManager.
  • RuleRuntimeEventManager.
  • EventListener.
  • DebugRuleRuntimeEventListener.
  • KieRuntimeEvent.
  • KieRuntimeLogger.
  • FileLogger.
  • ExecutionResults.

Drools Commands.

  • StatelessKieSession.
  • KBatchExecutionCommand.
  • ModifyCommand.
  • InsertElementsCommand.
  • FireAllRulesCommand.

BMPs.

Teste de Regras.

  • Testando com KIE.
  • Testando com JUnit.
  • Simulação de regras.

Assuntos Complementares.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico em desenvolvimento java.
  • Conhecimento básico em Apache Maven.
  • Conhecimento básico em git.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 30GB
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Drools e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com Treinamentos Drools e Cursos Drools. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento XWiki - Open Source Enterprise Wiki

O treinamento XWiki Open Source Enterprise Wiki é destinado para quem precisa conhecer o fundamental do XWiki para implantar uma solução de Wiki Corporativa. O curso permite desde o uso do XWiki no dia a dia de usuários colaborando com conteúdos e com suas principais funcionalidades, até funções mais avançadas como integrações e desenvolvimentos de extensões e a administração do software.

Todo o treinamento e ministrado sobre a versão Community do XWiki
em Português do Brasil com Ambiente de educação e metodologia de ensino personalizada.

Calendário de turmas abertas .

Somente turmas in-company.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o XWiki 15.10.10 e foi modificado pela última vez em 05 de Junho de 2024.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação do XWiki.
  • Configuração de templates.
  • Customização de páginas.
  • Administração do Ambiente.
  • Instalar um XWiki baseado em conteiners Docker.
  • Escalar aplicações.
  • Aplicar níveis de segurança no XWiki.
  • Customizar Extensões para XWiki.

Conteúdo Programático

Conceitual - Visão geral da Plataforma XWiki

  • Introdução ao conceito global de Wiki.
  • Introdução ao XWiki.
  • Arquitetura e Tecnologias utilizadas.
  • Histórico da XWiki.
  • Interfaces do XWiki.
  • Empresas usando XWiki no Mundo.
  • Empresas usando XWiki no Brasil.
  • Licenciamento do XWiki e tipos de licenças.
  • XWiki X MediaWiki.

Instalação do XWiki.

  • Básico de Docker para XWiki.
  • Preparação do ambiente de instalação.
  • Requisitos mínimos de configuração.
  • Principais decisões de arquitetura (Cloud, on-premises, etc).
  • Instalação do XWiki no Linux.
  • Configurações e propriedades globais.
  • Configurações de e-mail
  • Memória Java do Container Tomcat Java J2EE.
  • Formas de Acesso (Share, FTP, Explorers, etc).
  • Adicionando sua identidade visual e alterando detalhes do Layout

Funcionalidades do XWiki para Usuários

  • Navegação em sua instância XWiki (espaço, subespaço, página, etc.)
  • Estruturas do XWiki.
  • Criação e edição colaborativa de páginas wiki (editor WYSIWYG, macros);
  • Gerenciamento do histórico e controle de versão da sua página.
  • Criando links entre páginas.
  • Gerenciando documentos do Office.
  • Colaboração in-page (comentários, anotações, etc.);
  • Usando um aplicativo simples: blog;
  • Personalização do perfil do usuário;
  • Acompanhar a atividade (favoritos, fluxo de atividades);

Administrando a Plataforma XWiki.

  • Configurando o idioma padrão.
  • Gerenciando usuários e grupos.
  • Right management.
  • Editar a aparência.
  • Personalizar o layout.
  • Configurar e atualizar aplicativos Open Source.
  • Criação de novos wikis;

Autenticação e Segurança.

  • Overview de autenticação.
  • Modelo de segurança.
  • Papeis e usuários
  • Grupos e subgrupos.
  • Hierarquia de permissões.

Pesquisas Avançadas.

  • Apache Lucene
  • Pesquisas Lucene.

Arquitetura do XWiki.

  • Data Model.
  • Classes, Objects, e Properties.
  • Apache Tomcat.
  • Database Schema.
  • Apache Solr.
  • Extending XWiki.

Template Engine - Velocity.

  • O Projeto Apache Velocity.
  • Java-based template engine.
  • Velocity Template Language (VTL).
  • Hello Velocity World!
  • Variáveis.
  • Propriedades.
  • Métodos.
  • Property Lookup Rules.
  • Rendering
  • Index Notation.
  • Directives.
  • Literals.
  • If / ElseIf / Else.
  • Relational and Logical Operators.
  • Foreach Loop.
  • Velocimacros.
  • Script Services.
  • Features and Miscellany.
  • Groovy scripting.

Groovy Script.

  • O Projeto Apache Groovy.
  • full-fledged scripting language.
  • XWiki Component Access.

HQL.

  • Public API (searchDocuments).
  • Simple Query.
  • Ordered Query.
  • Advanced Query (date & time).
  • Privileged API (search).
  • Count Query.
  • Simple Query with multiple fields.
  • Objects of a specific class.
  • List users.
  • List attachments of a page.
  • Simple Query with multiple fields.

API.

  • Dataset.
  • Interagindo com XWiki RESTful API.
  • Authentication.
  • CSRF Token.
  • Sending representations.
  • PUT vs POST.
  • Headers.
  • Root resources.
  • Query API.
  • Localization resources.
  • Icon Theme resources.
  • Custom resources.

Extensões para XWiki.

  • Scripts
  • Java API.
  • Macros.
  • Skins
  • Skin Themes.
  • Skin Extensions.

Migrações.

  • Migrando de Confluence para XWiki.
  • Confluence Migrator.

Backups e Exportação.

  • Exportando conteúdos em XAR.
  • Importando conteúdos em XAR.
  • Métodos de Backup.
  • Ferramentas de Backup.

Carga Horária.

  • 32 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou Mac OS).
  • Conhecimento básico de banco de dados.
  • Conhecimento Básico em tecnologias de Front-End (HTML, CSS, JSON, JavaScript)
  • Conhecimento básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares XWiki e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • O treinamento apresenta uma empresa fictícia chamada "CloudWiki" onde será implantado o XWiki e todas as fases da implantação.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos XWiki e cursos XWiki. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores



Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutores

Leia mais...

Treinamento Bonita Open Source BPM

Este treinamento Bonita BPM é voltado para usuários e desenvolvedores que pretendem conhecer o processo de implementação de workflows na Ferramenta Bonita BPM. Todo o treinamento é ministrado sobre a versão Community do Bonita, repassando conhecimentos sobre conceitos de Workflow e Business Process Management (BPM) os componentes do Bonita BPM Plataform.

O Bonita, é um motor de fluxo de trabalho (Workflow) de código aberto escrito em Java que pode executar processos de negócios descritos no BPMN 2.0.

  • Plataforma aberta e moderna BPM permite flexibilidade para automatizar, personalizar e adaptar rapidamente os processos de negócio.
  • Ferramentas gráficas tornando mais fácil para usuários menos técnicos para projetar e ajustar os processos de negócios, agilizando implementação de aplicativos e alinhamento dos negócios.
  • Processos e formas em bibliotecas reutilizáveis que permitem montagem, aplicação rápida e simples e ao mesmo tempo garantir as melhores práticas e padrões à empresa são incorporadas.

Nosso conteúdo programático que foi construído para formação de consultores na plataforma de Bonita BPM, O mesmo mescla conhecimentos conceituais de Workflow, BPM, Modelagem de Processos e uma introdução ao ECM (Alfresco), assim como, necessidades de infraestrutura, integração e programação, necessários para implementação completa do Software Bonita.

Dificuldade: Média.

Aplicabilidade:

Este treinamento foi desenvolvido usando o Bonita Community 2023.2-u0 e foi modificado pela última vez em 22 de Maio de 2024.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Realizar implantação do Bonita.
  • Desenvolver fluxos de processos usando a metodologia BPM e notação BPMN.
  • Integrar os processos a aplicações externas.
  • Orquestrar processos.
  • Administração do Ambiente.
  • Escalar aplicações.
  • Aplicar níveis de segurança no Bonita.

Conteúdo Programático.

Conceitual.

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução a Notação BPMN.
  • Principais Elementos da Notação BPMN.
  • O Projeto Bonita BPM.
  • Histórico do Bonita.
  • Bonita X Activiti X Camunda X Flowable.
  • Versões do Bonita.
  • Licenciamento.

Instalação do Bonita BPM.

  • Instalação do Bonita Studio.
  • Instalação do Bonita Community Server.
  • Instalando o bundle.
  • Configurando o bundle.

UI do Bonita.

  • Menus.
  • Sub Menus.
  • Primeiros passos na ferramenta.

Criando Processos no Bonita.

  • Configuração Inicial do Bonita Studio.
  • Telas.
  • Desenho do primeiro processo.
  • Pool
  • Lanes.
  • Atores.
  • Organizações.
  • Exportando um processo.
  • Versionamento.
  • Importando organizações.
  • Importando um processo.
  • Testando o processo.

Segurança.

  • Controle de acessos
  • Usuários e Grupos.
  • Sistema de permissões.
  • Formas de Integração com LDAP.

Conectores.

  • Conceito de Conectores.
  • E-mail.
  • Banco de dados.
  • Relatórios.
  • GED.
  • Conceitual do GED Alfresco.
  • Integração com Alfresco.

Administração do Ambiente Bonita.

  • Colocando o Bonita em produção.
  • Tuning.
  • Geração automática de cache.

Carga Horária.

  • 24 Horas.

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos.

  • Conhecimento Básico em Conceitos de Processos.
  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux).
  • Conhecimento Básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de Hardware.

  • Memória RAM: 4GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Bonita Community e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Bonita e cursos Bonita. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache ORC

Sobre o Treinamento

Apache ORC é um formato de armazenamento de dados orientado a colunas gratuito e de código aberto. É semelhante a outros formatos de arquivo de armazenamento colunar disponíveis no ecossistema Hadoop, como RCFile e Parquet. Seu conteúdo programático oferece uma estrutura abrangente para um treinamento sobre Apache ORC, abordando desde os conceitos básicos até técnicas avançadas e aplicação prática em projetos.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Apache ORC.

Estrutura Interna do Apache ORC.

  • Visão geral da estrutura de arquivo ORC.
  • Compreensão dos tipos de dados suportados.
  • Exploração da compactação e codificação de dados.
  • ACID support.
  • Types.
  • Indexes.

Configuração e Instalação

  • Instalação do Apache ORC em diferentes ambientes (local, cluster, cloud).
  • Configuração inicial e ajustes recomendados.
  • Building ORC.

Escrita de Dados no Formato ORC.

  • Como escrever dados no formato ORC usando diversas linguagens (Python, Java, etc.).
  • Melhores práticas para otimização da escrita.
  • ORC Adopters.

Leitura de Dados no Formato ORC

  • Como ler dados ORC em diferentes ambientes e linguagens.
  • Otimização da leitura de dados.

Otimização e Desempenho

  • Estratégias para otimizar consultas em dados ORC.
  • Uso de índices e estatísticas para melhorar o desempenho.

Compactação e Particionamento

  • Estratégias para compactação eficiente de dados ORC.
  • Particionamento de dados para melhorar o desempenho.

Integração com Ferramentas de Big Data

  • Integração do Apache ORC com ecossistemas de Big Data como Hadoop e Spark.
  • Uso de ORC em pipelines de dados.
  • Java Tools.
  • Hive DDL.
  • Hive Configuration.

Casos de Uso Avançados

  • Estudos de caso avançados de uso do Apache ORC em ambientes reais.
  • Migração de dados para o formato ORC.
  • Spark DDL.
  • Spark Configuration.

Projeto Prático

  • Desenvolvimento de um projeto prático utilizando o Apache ORC.
  • Implementação de técnicas aprendidas ao longo do curso.

Carga Horária:

  • 16 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache ORC e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache ORC e cursos  Apache ORC. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Kudu

Sobre o Treinamento

O HUE (Hadoop User Experience) é uma interface de usuário web que facilita o uso do ecossistema Hadoop para processamento de big data. Este treinamento fundamental em HUE prepara profissionais para explorar e utilizar eficientemente as ferramentas do Hadoop para análise e processamento de dados em larga escala. Seu conteúdo programático foi desenvolvido para capacitar os participantes a dominar as técnicas essenciais necessárias para lidar com big data de forma eficaz.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Opensearch.

Instalação do Opensearch.

Fundamentos do Opensearch

  • Arquitetura do Opensearch.
  • Sharding.
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Admin UI.
  • Adicionando conteúdo ao Opensearch.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

 Índices no Opensearch.

  • Introdução aos índices no Opensearch.
  • Estrutura de um índice: documentos, shards e réplicas.
  • Criação de um índice
  • Configurações de índice e mapeamento de tipos.
  • Indexação de documentos
  • Tokenização.
  • Normalização.
  • Encontrando a raiz das palavras.
  • Stopwords.
  • Sinônimos.
  • Erros ortográficos
  • Analysis.
  • Index Shard Allocation.
  • Index blocks.
  • Mapper.
  • Merge.
  • Similarity module.
  • Slow Log.
  • Index Sorting.

Configurações do Opensearch.

  • Introdução às configurações no Opensearch.
  • Arquivo de configuração Opensearch.yml.
  • Configuração de armazenamento (caminho de dados e log).
  • Configuração de plugins e módulos.
  • Configuração de indexação e busca.
  • Configuração de idioma.

Cluster

  • O modelo distribuído.
  • Configuração de um cluster Opensearch.
  • Configurações de rede e descoberta de nós.
  • Shards: número, tamanho e alocação
  • Réplicas e alta disponibilidade.

API

  • API Opensearch.
  • EQL search APIs.
  • Data stream APIs

Opensearch e Java

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Java client.
  • Conectando ao Opensearch.
  • Java Low Level REST Client.
  • Indexando documentos.

Logstash

  • Instalação e Configuração.
  • Inputs, Filters, and Outputs.
  • Backup and restore.
  • Melhores práticas.

Openseach Dashboard

  • Instalação e configuração.
  • Time Picker, Search, and Filters.
  • Opensearch Discover, Visualization, and Dashboard Interfaces.
  • Backup and restore
  • Melhores práticas.

Monitoramento

  • Monitoramento.
  • Desdobramento, desenvolvimento.
  • Manutenção e otimização básica.

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Opensearch e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Opensearch e cursos Opensearch. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Ranger

Sobre o Treinamento

Neste treinamento vamos explorar o Apache Ranger como uma solução central para controle de acesso e auditoria em ambientes Hadoop e outras ferramentas do ecossistema de Big Data. O foco será prático, com instalação e configuração do Apache Ranger, e integração com ferramentas como Apache Atlas, Elasticsearch e Kibana já pré-configuradas em uma máquina virtual fornecida pela Ambiente Livre.

O que vou aprender?

Ao final deste treinamento você será capaz de:

  • Instalar e configurar o Apache Ranger em ambientes Big Data.
  • Compreender a arquitetura do Ranger e o papel de cada componente.
  • Criar políticas de segurança para Hive, HDFS, Kafka, entre outros serviços.
  • Controlar acessos por usuários, grupos, IPs e condições avançadas.
  • Criar e aplicar políticas dinâmicas baseadas em tags com Apache Atlas.
  • Navegar e configurar o Ranger Admin UI.
  • Integrar o Ranger com sistemas de autenticação como LDAP ou AD.
  • Visualizar e auditar logs de acesso no Kibana com dados do Elasticsearch.
  • Utilizar o Ranger com integração com o Apache Atlas.
  • Aplicar boas práticas e segurança em ambientes distribuídos.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
Avançado

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Ranger 2.6.0 e foi modificado pela última vez em 31 de maio de 2025.

Conteúdo Programático.

Conceitual Apache Ranger.

Instalação e Configuração.

  • Requisitos de instalação.
  • Instalando o Apache Ranger Server.
  • Configuração inicial do Ranger Admin.
  • Integração com Banco de Dados externo (MySQL/PostgreSQL).
  • Inicializando o serviço do Ranger.
  • Configuração via arquivos .xml e install.properties

Fundamentos do Apache Ranger

  • Introdução ao Console Admin Web.
  • Perfis, políticas e permissões.
  • Criação de usuários, grupos e roles.
  • Integração com LDAP/Active Directory.
  • Políticas baseadas em recursos (Resource-Based Policies).
  • Políticas baseadas em tags (Tag-Based Policies).
  • Auditoria e logs de acesso.
  • Workflows de aprovação (com Ranger KMS).

Integração com Sistemas de Big Data.

  • HDFS Plugin: políticas e permissões de arquivos.
  • Hive Plugin: controle de acesso a databases, tabelas e colunas.
  • Kafka Plugin: controle de acesso por tópicos e consumidores.
  • YARN, Knox, HBase, Solr: conceitos e exemplos de políticas.
  • Integração com Apache NiFi.
  • Integração com Trino e Presto.
  • Plugins vs. Agentes Externos: modos de operação.

Gerenciamento de Políticas.

  • Criação e gerenciamento de políticas no console.
  • Clonagem e herança de políticas.
  • Wildcards e expressões regulares em políticas.
  • Auditoria e trilha de acesso: revisão e análise.
  • Exportação e importação de políticas.
  • Gerenciamento de múltiplos repositórios.
  • Controle por tempo e condições (políticas dinâmicas).

Ranger KMS (Key Management Service)

  • Introdução à Criptografia de Dados em Descanso (Encryption at Rest).
  • Arquitetura do Apache Ranger KMS.
  • Criação e gerenciamento de chaves.
  • Integração com HDFS, Hive e HBase.
  • Auditoria de uso de chaves.
  • Políticas de acesso a chaves e rotação automática.

Auditoria e Monitoramento

  • Configuração do Ranger Audit.
  • Armazenamento de logs em Apache Solr, HDFS ou Elasticsearch.
  • Integração com Kibana para visualização de eventos
  • Alertas e notificações baseados em logs de auditoria.
  • Boas práticas de retenção e análise de logs.
  • Integração com sistemas SIEM.

Melhores Práticas e Manutenção

  • Backup e restauração do Ranger Admin.
  • Atualizações e upgrades de versão.
  • Segurança do próprio Ranger Admin (HTTPS, firewalls).
  • Hardening do Ranger Server.
  • Performance tuning.
  • Troubleshooting de plugins.
  • Ranger em ambientes de alta disponibilidade (HA).

Tópicos Gerais.

Carga Horária:

  • 16 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em governança de dados 
  • Conhecimento básico no ecossistema de Big Data e Apache Atlas.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Ranger e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Ranger e cursos Apache Ranger. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Apache Sqoop

Sobre o Treinamento

O Apache Sqoop é uma interface de linha de comando para mover dados de bancos de dados relacionais e Hadoop. O treinamento Apache Sqoop prepara profissionais a implantar , integrar e criar pipeline de dados.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Sqoop.

Instalação do Sqoop.

Fundamentos do Sqoop

Executando o Sqoop.

  • Sqoop CLI.
  • Comando Sqoop.
  • Conexão com bancos de dados.
  • Configuração de drivers JDBC.
  • Comandos básicos de importação.
  • Parâmetros de configuração.
  • Importar MySQL para HDFS.
  • Importar MySQL para HDFS com metastore no Hive.
  • Importar do HDFS paraa o MySQL.
  • Executando trabalhos do Sqoop.

Pipeline de Dados.

  • Criando pipelines de processos Sqoop.
  • Importação Incremental.
  • Append.

Sqoop e HBase

  • Comandos específicos para HBase.

Sqoop e Oozie

  • Automação de jobs Sqoop com Oozie.

Otimização e assuntos gerais do Sqoop

  • Otimização de jobs Sqoop.
  • Parâmetros de desempenho.
  • Técnicas de tunning.
  • Troubleshooting.

Carga Horária:

  • 4 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.
  • Conhecimento Básico em Hadoop e Banco de Dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Sqoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Sqoop e cursos Apache Sqoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 22 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

5.007 profissionais capacitados em 399 turmas ministradas.

Atuação global, 845 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.980 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Log in