Activiti BPM

Marcio Junior Vieira

Marcio Junior Vieira

  • 24 anos de experiência em tecnologia da informação, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela UFG - Universidade de Goiás no CIAP - Centro de IA Aplicada às Políticas Públicas.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay, PgConf e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Consultoria em GLPI ITSM

O Software GLPI ITSM.

GLPI é uma ferramenta de software ITSM (Gerenciamento de Serviços de TI) que ajuda a planejar e gerenciar mudanças de TI de uma maneira fácil, resolver problemas com eficiência quando surgirem, com metodologias ligadas ao Help Desk e ao Service Desk (ITIL), e também permitir que você obtenha controle sobre o orçamento e as despesas de TI da sua empresa. Ele é uma solução web Open-source completa para gestão de ativos e help desk. O mesmo gerência todos os seus problemas de inventário de ativos/hardwares e software e suporte ao usuário

ITIL - Help Desk e Gestão de Serviços de TI.

ITIL e uma sigla para Information Technology Infrastructure Library, é um conjunto de boas práticas detalhadas para o gerenciamento de serviços de TI que se concentra no alinhamento de serviços de TI com as necessidades dos negócios.
O ITIL descreve processos, procedimentos, tarefas e listas de verificação que não são específicos da organização nem específicos da tecnologia, mas podem ser aplicados por uma organização para estabelecer a integração com a estratégia da organização, entregando valor e mantendo um nível mínimo de competência. Ele permite que a organização estabeleça uma linha de base a partir da qual possa planejar, implementar e medir. Ele é usado para demonstrar conformidade e medir a melhoria.

Vantagens do GLPI.

  • Custo zero de licença de software.
  • Alinhado com a ITIL.
  • Gestão completa de Help Desk.
  • 100% Web.
  • Diversos plugins com funcionalidades acessórias.
  • Multi Empresa.
  • Instalado em cloud, on premise ou híbrido.
  • Acesso controlado por departamento e usuário..

Funcionalidades do GLPI.

  • Gestão de Incidentes e Requisições.
  • Gestão de Problemas.
  • Gestão de Mudanças.
  • Gestão de Níveis de Serviço - SLA.
  • Gestão do Conhecimento.
  • Gestão de Ativos e Licenças (adquiridas, a serem adquiridas, sites, OEM) e datas de expiração.
  • Gestão de Projetos.
  • Gestão de Fornecedores.
  • Gestão de Reservas.
  • Gestão de empréstimos.
  • Relatórios e Estatísticas,
  • Inventário dos computadores, periféricos, rede, impressoras e produtos afins.
  • Indicação do hardware por área geográfica (sala, piso, etc).
  • Gestão das informações comerciais e financeiras (compra, garantia e extensão, amortização).
  • Gestão do estado do hardware.
  • Gestão dos pedidos de intervenção para todos os tipos de hardware do inventário.
  • Interface do usuário final para pedido de intervenção.
  • Gestão das empresas, contratos, documentos ligados aos elementos dos inventários.
  • Gestão de um sistema de base de conhecimentos hierárquicos (FAQ), gestão de um FAQ público.
  • Criação de relatórios sobre o hardware, dos relatórios da rede, dos relatórios sobre as intervenções.
  • Atribuição de chamados para usuários, grupo, ou setor dependendo de sua categoria.
  • Histórico completo de chamados abertos, incluindo quando, o quê e por quem foi alterado.
  • Possibilidade de anexar arquivos em chamados, criar soluções que podem ou não ser vistos pelo requerente do chamado.
  • Follow-up dos chamados via e-mail.
  • Integração com AD ou LDAP.

Ambiente Livre e GLPI.

A Ambiente Livre é pioneira na prestação de serviços, com foco em softwares de código fonte aberto e apta a prestar: Consultoria, Treinamentos em turma aberta ou In Company, Implantação e  Suporte para  as  seguintes  soluções: Big Data, Business Intelligence (BI), Business Analitycs,Data Mining, Enterprise  Content  Management (ECM), Business Process  Management  (BPM), CRM,CMS que geram maior controle e  flexibilidade às empresas. Com mais de 16 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CMS Open Sources com a Plataforma GLPI, e atua em todo o Brasil, América Latina, Europa e África levando conhecimento as empresas sobre plataformas de Help Desk e ITSM, através de capacitações, eventos, cursos de GLPI, workshops e treinamentos de GLPI. Com profissionais com experiência de mais de 8 anos com GLPI, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em GLPI e se consolidamos como a principal referência em formação de tecnologias open source GLPI, atendendo mais de 100 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do GLPI.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de help desk e gestão de ativos com o GLPI.

Consultoria em GLPI.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do GLPI.
  • Consultoria em projetos GLPI.
  • Desenvolvimento e Customizações do GLPI.
  • Consultoria e apoio ao cliente na definição de organização do GLPI.
  • Consultoria na instalação e configuração do Ambiente GLPI com LDAP/AD.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de ambientes de Help Desk para GLPI.
  • Consultoria no desenvolvimento de Relatórios no GLPI.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em GLPI.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em GLPI.

Ambientes onde podemos implementar as soluções GLPI.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Microsoft - Azure.

Tecnologias de Help Desk e ITSM que somos especialistas.

  • GLPI ITMS.
  • OCS Inventory.

Conheça nossos treinamentos no GLPI.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de Help Desk e Service Desk. Entre em contato conosco.

 

Leia mais...

Treinamento Apache Kafka - Fundamental

Sobre o Treinamento

O treinamento fundamental Apache Kafka é voltado para Administradores, desenvolvedores, arquitetos de software e engenheiros de dados que pretendem conhecer o processo de implementação de um streaming de dados distribuído. O treinamento tem diversas atividades práticas simulando uma implantação e integração do Kafka a um ambiente complexo de processamento de dados. Contempla itens voltados a administração, infraestrutura e desenvolvimento. 

Calendário de turmas abertas Apache Kafka

  1. Online Ao Vivo
  • Data: -
  • Local: Online Ao Vivo
  • Inscreva-se
next
prev

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • Streaming.
  • Stream X Batch.
  • Eventos.
  • Dados Distribuídos.
  • Real-time Stream.
  • CDC – Change Data Capture.
  • Projeto Apache Kafka.
  • História do Apache Kafka.
  • Apache Software Foundation.
  • Kafka x RabbitMQ X Spark Stream X Flink Stream.
  • Licenciamento (Free Software X Open Source).
  • Motivações para usar Streaming.
  • Empresas usando Kafka no mundo.
  • Empresas usando Kafka no Brasil.
  • Versões do Apache Kafka.
  • Confluent Plataform.
  • Comunidade Apache Kafka no Brasil e no Mundo.
  • Livros, sites, documentação e referências.

Instalação do Kafka

  • Pré-requisitos
  • Instalando Java/JDK.
  • Instalando o rodando o Kafka.
  • Configurações iniciais do Kafka.

Fundamentos do Kafka

  • Producer.
  • Kafka Brokers.
  • Local Storage.
  • Tempo de retenção.
  • Política de retenção.
  • Poll.
  • Kafka Consumers.
  • Mensagens.
  • Tópicos.
  • Particionamentos.
  • Segmentos.
  • Log.

Kafka Data Model.

  • Registro.
  • Headers.
  • Chave.
  • Hash.
  • Valor.
  • Timestamp.
  • Tipos de Dados.
  • Serialização de dados.
  • Avro, JSON.
  • Meta Data (Schema).

Arquitetura do Apache Kafka.

  • Kafka Commit Log.
  • Replicação e Alta Disponibilidade.
  • Particionamento e Consumers Group para Escalabilidade.

Kafka Producers

  • Producers Designer.
  • Desenvolvendo Produces em Java.
  • Configurações.
  • Criando Producers.
  • Enviando Dados.
  • Desenvolvendo Produces em Python.
  • Producers via REST.
  • Producers via linha de Comando.
  • Produce Cache.

Kafka Consumers.

  • Desenvolvendo Comsumers em Java.
  • consumer.properties.
  • Consumer Pull.
  • Consumer Offset.
  • Consumer Group.
  • Leader e Follower.
  • Consumers Rebalances

Integrando o Kafka com suas Aplicações.

  • REST Proxy.
  • Schema Registry.
  • Kafka Connect.
  • KStreams X KTables.
  • Kafka Connect API.
  • Kafka Pipeline.
  • Kafka Stream.
  • Criando Streams.
  • Criando Tabelas.
  • Kafka Stream API.
  • Kafka Streams Data Types.
  • Kafka Streams DSL - Stateless Operations.
  • Kafka Streams DSL - Aggregation.
  • Kafka Streams DSL - Windowed aggregation.
  • Kafka Streams DSL - Join.
  • Kafka Streams DSL- Summary.
  • Filter, Map, Join, Aggregate.
  • Subscribe, Poll, Send, Flush.
  • ksqlDB.
  • Kafka SQL.
  • KSQL interagindo com Apache Kafka.
  • Microserviços.
  • Continuos Querys.
  • Continuos Transformations.
  • Kafka e Pentaho Data Integration.
  • Importação e Exportação de Dados no Kafka.
  • Source e Sinks.
  • Kafka Java Application.
  • Kafka Hadoop Consumer API.

Kafka Cluster

  • Zookeeper.
  • Fator de Replicação.
  • Estratégias de Particionamento.
  • Particionamentos customizados.
  • Liderança de Partições.
  • Load Balancing.
  • Testando o Cluster.
  • CLI Tools.
  • Expandindo seu cluster.
  • Incrementando o fator de Replicação

Tópicos Avançados.

  • Kafka com Docker e Kubernetes.
  • Deploy com arquivo WAR.
  • Scalable Data Pipeline.
  • Log Compactado.
  • Segurança.
  • Autenticação e Autorização.
  • Criptografia.
  • Monitoramento com JMX.

Carga Horária:

  • 32 Horas.

Pré-Requisitos:

  • Conhecimento Básico em comandos Bash Shell/Linux.
  • Conhecimento básico de Java.
  • Conhecimento em Java IDE (Eclipse, IntelliJ ou NetBeans).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB.
  • Espaço em Disco: 20 GB.
  • Processador: 4 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Kafka e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Kafka e cursos Kafka. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Próxima turma:

  • Data: -
  • Local:Online Ao Vivo
  • Contato

Informações e Valores

Powered by BreezingForms

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Docker – Container Engine

O treinamento fundamental em Docker prepara profissionais para o mercado de gerenciamento de containers. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes nuvem públicas ou privadas.


Público-alvo.

Este treinamento é direcionado para as seguintes profissionais:

  • DevOps Engineers.
  • MLOps Engineers.
  • Desenvolvedores Backend e Full Stack.
  • Desenvolvedor de Modelos Generativos (LLM Developer).
  • SREs (Site Reliability Engineers).
  • Administradores de Sistemas Linux.
  • Engenheiros de Dados / Cientistas de Dados.
  • Engenheiro de IA (AI Engineer).
  • Arquitetos de Software / Arquitetos de Soluções.
  • Testadores / QA Engineers.

Dificuldade.

Intermediário.

Aplicabilidade.

Este treinamento foi desenvolvido usando Docker 25.0.5 e foi modificado pela última vez em 9 de Maio de 2025.

Conteúdo Programático.

Conceitual de Contêineres.

  • Introdução a contêineres.
  • Ecossistema de contêineres.
  • Containers X Virtual Machines.
  • Imagens de contêineres.
  • Volumes de contêineres.
  • Caso de uso de contêineres.

Conceitual Docker.

  • O Software Docker.
  • Histórico do Docker.
  • Licenciamento do Docker.
  • Open Source X Free Software.
  • Arquitetura do Docker.
  • Namespaces.
  • Sistemas Operacionais Suportados.
  • Docker Hub.
  • Empresas usando Docker no Mundo.
  • Empresas usando Docker no Brasil
  • Comunidade Docker.
  • Versões e edições do Docker.
  • Docker Enterprise Edition.

Instalação do Docker.

  • Instalação do Docker no Linux.
  • Configurando Docker.
  • Baixando container com git pull.
  • Container com deamon.

Docker CLI

  • Conhecendo o CLI do Docker.
  • Principais comando Docker.
  • Preparando ambiente com minikube
  • Docket Build.
  • Acessando container via console.
  • Apagando containers.
  • Comunicação entre containers.

Aplicações com Docker

  • Adicionando uma aplicação em containers.
  • Python e Docker.
  • Aplicativos em vários containers.
  • Exemplo prático de uma aplicação web Python.

Volumes no Docker

  • Criando volumes.
  • Gerenciando volumes.
  • Personalizando volumes.
  • Plugins de volumes.
  • Persistência de volumes.
  • Backups e restore de volumes.
  • Apagando volumes.

Segurança e Rede.

  • Autenticação, controle de autorização.
  • Rede Docker.
  • Configuração de portas.
  • DNS e Links.

Docker Compose e Dockerfile.

  • O estrutura do arquivo YML.
  • usando o docker-compose.
  • Compose CLI.
  • Dockerfile.
  • Execução de aplicativos Docker Compose.
  • Docker Registry e Compose.

Gerenciamento do Docker

  • Docker Registry.
  • Restart policy.
  • Docker Multi cloud.
  • Deploy de aplicações.
  • Limpeza e manutenção.
  • Gerenciando os services.
  • API Rest do Docker.
  • Docker Swarm.
  • Docker em Clouds.
  • Docker Machine.
  • Documentação oficial.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento básico de comandos e servidores Linux.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 4 Cores
  • Sistemas Operacionais: GNU/Linux, Windows, Mac OS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Docker e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Docker e cursos Docker. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Zeebe Workflow Engine for Microservices Orchestration

Sobre o Treinamento

treinamento fundamental Zeebe Workflow Engine for Microservices Orchestration é voltado para usuários e principalmente desenvolvedores e arquitetos de software pretendem conhecer o processo de implementação de orquestração de micro serviços de workflows para grande volume de informações e processos.

Calendário de turmas abertas

Somente turmas fechadas.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução ao CMMN 1.1.
  • O Projeto Camunda.
  • Projeto Zeebe.
  • Zeebe x Camunda.
  • Licenciamento (Free Software X Open Source).
  • Zeebe Community License.
  • Empresas usando CamundaZeebe no mundo.
  • Empresas usando CamundaZeebe no Brasil.
  • Versões do Zeebe.
  • Comunidade Camunda no Brasil e no Mundo.
  • Livros, sites, documentação e referências complementares.

Aplicações de processo

  • Modelagem de processo com BPMN 2.0.
  • Principais Elementos da Notação BPMN.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.
  • Elementos BPMN suportados pelo Zeebe.

Componentes  do Zeebe

Instalação e Configuração

  • Instalação do Ambiente Zeebe.
  • Pré-requisitos.
  • Instalando o Zeebe Broker.
  • Instalando o Zeebe Simple Monitor.
  • Instalando o Zeebe Operate.
  • Instalação do Zeebe Modeler.
  • Instalando o Kibana.

Arquitetura.

  • Arquitetura do Zeebe.
  • Workflow.
  • JobWorker.
  • Partitions.
  • Protocols.
  • Fases do Processamento interno.
  • Exporters.
  • Clustering.

Desenvolvendo processos com Zeebe.

  • Criando o Workflow.
  • Deploy.
  • Iniciando uma instância.
  • Completando tarefas.
  • Workflow Lifecycles.
  • Variáveis.
  • Expressões.
  • BPMN Primer.
  • BPMN Coverage.
  • Data Flow.
  • Tasks.
  • Gateways.
  • Events.
  • Sub Processos.
  • Markers.
  • YAML Workflows.
  • Message Correlation.
  • Incidents.
  • Exporters.

Conhecendo o Zeebe gRPC.

  • Desenvolvendo com Java.
  • ActivateJobs RPC.
  • CancelWorkflowInstance RPC.
  • CompleteJob RPC.
  • CreateWorkflowInstance RPC.
  • CreateWorkflowInstanceWithResult RPC.
  • DeployWorkflow RPC.
  • FailJob RPC.
  • PublishMessage RPC.
  • ResolveIncident RPC.
  • SetVariables RPC.
  • ThrowError RPC.
  • Topologia RPC.
  • UpdateJobRetries RPC.
  • Interação com outras linguagens.

Zeebe Cluster.

  • Zeebe sobre Kubernetes.
  • Cluster.
  • Worker.
  • Gateway.
  • Zeebe operator.
  • Kibana.

Carga Horária:

  • 24 Horas.

Pré-Requisitos:

  • Conhecimento básico de Java
  • Conhecimento em Java IDE (Eclipse, IntelliJ, NetBeans).
  • Conhecimento de Container e Virtual Machines.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB
  • Espaço em Disco: 20 GB
  • Processador: 4 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Zeebe e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Zeebe e cursos Zeebe. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Drill - Fundamental

O treinamento fundamental em Apache Drill prepara profissionais para o mercado de analise e ciência de dados, usando um mecanismos de exploração de dados de grande volume com uma diversidade de fontes de dados, e uma abstração da complexidade de suas fontes de dados de origem. O Apache Drill fornece consulta SQL colunar, distribuída e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento tais como HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, etc. Sua saída de dados pode ser consumida por conectores JDBC, Linguagens de programação ou ainda ferramentas de Business Intelligence como Pentaho Business Intelligence e outras.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Drill para exploração de dados.

Público Alvo

Cientistas de dados, Analistas de Business Intelligence, DBAs, Engenheiro de dados, Desenvolvedores.

Conteúdo Programático.

Conceitual Apache Drill.

  • Introdução ao Apache Drill.
  • Introdução a Ciência de dados.
  • Introdução a Big Data.
  • Apache Drill no Ecossistema de Big Data.
  • A Apache Software Foundation.
  • Cases de Uso do Apache Apache Drill.
  • Empresas usando Apache Apache Drill.
  • Dremel/Google BigQuery X Drill.
  • Open Source X Free Software.

Instalação do Apache Drill.

  • Requisitos para instalação do Apache Drill.
  • Instalando o Apache Drill (Embeeded Mode).
  • Preparando o Cluster.
  • Instalando o Apache Drill (Distributed Mode).
  • Configurando o Apache Drill.
  • Configurando ZooKeeper.
  • Configurando o Storage.

Querys com Apache Drill.

  • Querys com dados delimitados.
  • Drill SQL Query Format.
  • Criando fonte de dados.
  • Definindo o ambiente de trabalho.
  • Acessando colunas em querys.
  • Cabeçalhos de Dados Delimitados.
  • Função Table.
  • Drill Data Types.
  • Trabalhando com formatos de datas.
  • Criando Views.
  • Analisando dados com Apache Drill.
  • Palavras reservadas.

Analise de Dados Complexos

  • Arrays e Maps.
  • Analisando logs com Drill.
  • Query com Nested Data.

Data Sources com Drill.

  • Múltiplos data Sources.
  • Base de dados Relacionais.
  • Query em Hadoop para Drill.
  • Query em HBase para Drill.
  • Streaming de Dados com Apache Drill e Kafka.
  • Query MongoDB com Drill.
  • Drill com Cloud Storage.

Conectando ao Apache Drill.

  • Conectando com JDBC.
  • Conectando com Python.
  • Conectando com R.
  • Conectando com Java.
  • Conectando com Ferramentas de BI.

Engenharia de dados com Apache Drill.

  • Schema-on-Read.
  • SQL Relational Model.
  • Data Source Inference.
  • File Type Inference.
  • Distributed File Scans.
  • JSON Objects.
  • Usando Drill com Parquet.

Funções do Apache Drill.

  • User-Defined Functions.
  • Drill com arquivos do Planilhas Eletrônicas (LibreOffice Calc, MS Excel, etc).
  • Geospatial Functions.
  • Networking Functions.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Drill e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Drill e cursos Apache Drill. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Instrutor

Leia mais...

Consultoria em LimeSurvey

O Software LimeSurvey.

O Limesurvey é um software livre desenvolvido com o objetivo de preparar, publicar e coletar respostas de questionários. Uma vez criado um questionário, ele pode ser publicado Online (questão por questão, grupo a grupo de questões ou tudo em uma única página de questionários). O LimeSurvey permite definir como as questões serão mostradas e variar o formato dos questionários por meio de um sistema de padrões ( templates). Fornece ainda uma análise estatística básica sobre os resultados dos questionários.

O LimeSurvey possui a capacidade de gerar Tokens individualizados (chaves), de forma que apenas a pessoa que receber um token poderá acessar o questionário. Tokens são informações enviadas para a lista de pessoas, que você quer convidar para participar de um questionário, de forma a permitir maior controle do questionário disponibilizado pela Internet.

 

Funcionalidades do LimeSurvey.

  • Números ilimitados de questionários, perguntas e participantes;
  • Internacionalização e localização (Multi-linguagem);
  • Controle de acesso por usuário e grupos;
  • 20 formatos de perguntas;
  • Administração de cotas;
  • Editor HTML avançado;
  • Editor de templates para criação do seu próprio layout;
  • Interface de administração amigável e extensível;
  • Funções de importação e exportação (Texto, CSV, PDF, R (software estatístico), MS excel, open Office Calc, Br Office Calc;
  • Integração de imagem e vídeos em questionários;
  • Versão de questionário impresso;
  • Perguntas condicionais (lógicas e ramificadas);
  • Reutilização do conjunto de respostas;
  • Importação e exportação de perguntas;
  • Questionário com data de expiração automática;
  • Avaliação de questionários anônimos e não anônimos;
  • Envio de convites, lembretes e Tokens (chave de acesso) por e-mail;
  • Opção de salvar as respostas e continuar o questionário em outro momento;

Ambiente Livre e LimeSurvey.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções de Pesquisas que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CMS Open Source pata o LimeSurvey, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de Pesquisas e Questionários em LimeSurvey, através de capacitações, eventos, cursos de LimeSurvey, workshops e treinamentos em LimeSurvey. Com profissionais com experiência de mais de 8 anos na plataforma LimeSurvey, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em LimeSurvey e se consolidamos como a principal referência em formação de tecnologias Free Software LimeSurvey para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do LimeSurvey.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de pesquisas em sua empresa com o LimeSurvey.

Consultoria em LimeSurvey.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do LimeSurvey.
  • Consultoria na implantação com LimeSurvey integrado a portais de Internet.
  • Desenvolvimento Questionários / Pesquisas.
  • Desenvolvimento e Customizações do LimeSurvey.
  • Desenvolvimento de Templates com a identidade Visual do Cliente.
  • Consultoria e apoio ao cliente na definição de organização das pesquisas no LimeSurvey.
  • Consultoria na instalação e configuração do Ambiente LimeSurvey.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em LimeSurvey.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em LimeSurvey.

Ambientes onde podemos implementar soluções de pesquisa com LimeSurvey.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Azure.
  • Provedores (Locaweb,Uol Host, etc)

Tecnologias que somos especialistas.

  • PHP
  • MySQL, MariaDB e PostgreSQL.
  • Servers Linux.
  • CSS/HMTL
  • JavaScript/JQuery.

Conheça nossos treinamento no LimeSurvey.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de pesquisas. Entre em contato conosco.

 

Leia mais...

Treinamento Apache Airflow

O treinamento Apache Airflow prepara profissionais para o mercado para automatizar seu fluxo de trabalho e orquestrar pipelines de dados. O Apache Airflow é uma plataforma de gerenciamento de fluxo de trabalho de código aberto. Tudo começou no Airbnb em outubro de 2014 como uma solução para gerenciar os fluxos de trabalho cada vez mais complexos da empresa. Empresas como Alibaba, Airbnb, Tesla, Square e Spotify têm usado o Apache Airflow em produção e obtendo excelentes resultados.

Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Airflow para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiros de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade:
 Médio

Aplicabilidade.

Este treinamento foi desenvolvido usando o Apache Airflow 3.0.1 e foi modificado pela última vez em 6 de Junho de 2025.

Conteúdo Programático.

Conceitual Apache Airflow.

Instalação do Apache AirFlow.

  • Requisitos do sistema.
  • Instalando o Apache Airflow (via pip/Python).
  • Instalação e execução com Docker e Docker Compose.
  • Kubernetes com Kind (local) 
  • Implantação em Kubernetes (Helm Chart oficial).
  • Configurações básicas: airflow.cfg, variáveis e conexões.
  • Configuração do backend (PostgreSQL / MySQL).

Introdução a Linguagem Python.

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python.
  • Básico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Fundamentos de DAGs e Desenvolvimento.

  • DAGs em Python: estrutura, agendamento e dependências.
  • DAG Runs.
  • Definindo Tasks com Operators padrão (BashOperator, PythonOperator, etc)
  • Customização: criar Operators e Sensors customizados.
  • Uso de Sensors para esperas condicionais.
  • Trigger Rules e estratégias de retry.
  • XCom: comunicação entre tarefas.
  • Gestão de parâmetros e variáveis.
  • Uso de Templates Jinja para parametrização dinâmica
  • Conhecendo o CLI.
  • Conexões.
  • Instância Remota Airflow.
  • Bash/Zsh.
  • Exportando DAGs.
  • Scheduler.
  • Executor e Workers.
  • Web Server - Flask.
  • Plugins.
  • Time zones.
  • Celery.

Tasks e Operator

  • BashOperator.
  • PythonOperator.
  • EmailOperator.
  • SimpleHttpOperator.
  • PostgresOperator.
  • JdbcOperator.
  • DockerOperator.
  • S3FileTransformOperator.
  • Providers.
  • Astronomer Registry.

Integrações e Orquestração Multicloud

  • Integração com Azure (Data Lake, Data Factory, Managed Airflow).
  • Integração com AWS (S3, Redshift, MWAA).
  • Integração com Google Cloud Platform (GCS, BigQuery, Composer).
  • Orquestração de pipelines híbridos e multicloud.

APIs, Monitoramento

  • Uso da REST API.
  • CLI do Airflow: comandos essenciais para administração.
  • Monitoramento com Prometheus e Grafana.
  • Python API.

Executors e Escalabilidade

  • Visão geral dos executores: SequentialExecutor, LocalExecutor, CeleryExecutor, KubernetesExecutor, DaskExecutor
  • Configuração do CeleryExecutor com RabbitMQ / Redis.
  • KubernetesExecutor: vantagens e configuração básica.
  • Auto scaling no Kubernetes para workers;
  • Monitoramento e resolução de problemas de performance.
  • Alta disponibilidade do Scheduler e Webserver.

Itens Gerais

  • Customizando o Apache Airflow.
  • Macros.
  • Versionamento nativo de DAGs.
  • Arquitetura orientada a serviços: airflow api-server.
  • Melhores práticas.

Autenticação e Segurança

  • Autenticação e segurança (RBAC, OAuth, LDAP).
  • Gerenciamento de permissões e roles (RBAC).
  • Configurações de segurança: backend de secrets, autenticação via OAuth e LDAP.

Airflow na Cloud (AWS)

  • Multi-Cloud.
  • MWAA (Managed Workflows for Apache Airflow) - AWS
  • Workers auto-scale.
  • Open Airflow UI.
  • Console do Amazon MWAA.
  • Gravando suas DAGs no S3.
  • Monitoramento usando CloudWatch.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem ter um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Airflow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com Treinamentos Apache Airflow e Cursos Apache Airflow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Druid - Fundamental

O treinamento fundamental em Apache Druid prepara profissionais para o mercado para manipulação de dados em tempo real. Apache Druid é um armazenamento de dados distribuído, de código aberto e orientado a colunas, escrito em Java. Foi projetado para ingerir rapidamente grandes quantidades de dados de eventos e executar consultas OLAP de baixa latência nesses dados. O Druid é comumente usado em aplicativos de inteligência de negócios para analisar grandes volumes de dados históricos e em tempo real. Também é adequado para alimentar painéis analíticos rápidos, interativos e para usuários finais. Empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal tem usado o Apache Druid.


Conteúdo Programático.

Conceitual Apache Druid.

  • Introdução ao Druid.
  • Ecossistema de Big Data.
  • Introdução a Streaming Data.
  • Introdução a OLAP.
  • Introdução a Hadoop.
  • Apache Software Foundation.
  • Introdução ao Zookeper.
  • Cases de Uso do Druid.
  • Empresas usando Druid.

Instalação do Apache Druid.

  • Instalando o Druid.
  • Configurando o Druid.
  • Importando um data Source.

Características

  • Alta Performance.
  • Real-time.
  • Analytics.
  • Database.
  • Spec.
  • Schema.

Arquitetura do Apache Druid

  • Arquitetura.
  • Middle Manager.
  • Indexing Nodes.
  • Historical Nodes.
  • Broker Nodes.
  • Cordinator Nodes.

Storage Formats

  • Segments Files.
  • Particionamento.
  • JSON, CSV, TSV.
  • ORC, Parquet, Avro.

Funcionalidade

  • Data Rollup.
  • Enconding.
  • Bitmap Indices.
  • Sketch Columns
  • Limitações.
  • Real Time Analytics.

Índices de Dados

  • Sharding.
  • Real Time Indices.
  • Streaming Ingestion.
  • Kafka Indexing Service.
  • Batch Ingestion.
  • Hadoop Index Task.
  • Index Task.
  • Interação com Apache Hive.

Querys e Druid SQL.

  • JSON Querys.
  • SQL Querys.
  • Pytho Querys.
  • R Querys.
  • Ruby Querys.
  • Javascript Querys.
  • Clojure Querys.
  • PHP Querys.
  • REST API Querys.
  • Multiple Query Types.
  • Timeseries,TopN, GroupBy, Select, Segment Metadata.
  • Parser e Planner Apache Cacique.
  • Pvot Analytics UI.

Integração

  • Druid via JDBC.
  • Druid com Hive.
  • Druid e sistemas de BI.
  • Druid Storage for Hive.

Segurança

  • Configurando Acessos.

Cluster Druid

  • Configurando o Cluster.
  • Cluster Distribuído.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Druid e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Druid, cursos Druid. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento em Apache Solr

Sobre o Treinamento

O treinamento fundamental em Apache Sorl prepara profissionais para o mercado de indexação textual e documental para pesquisas elásticas e eficientes de fontes de big data ou de sistemas com que pretendem embutir o Solr como motor de busca textual. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes clusterizados para gestão de buscas textuais.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Dificuldade: Média.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Solr 9.4.1 e foi modificado pela última vez em 14 de Fevereiro de 2024.

Conteúdo Programático.

Conceitual Solr.

  • Introdução a Pesquisas.
  • A Apache Software Foundation.
  • Lucene/Solr.
  • Solr no ecossistema de Big Data.
  • Text Analytics e Geo Search.
  • Terminologias.
  • Cases de Solr.
  • Empresas usando Solr no Brasil.

Instalação do Solr.

  • Instalando um nó de Solr.
  • Iniciando o Solr.

Fundamentos do Solr

  • Arquitetura do Apache Solr.
  • Arquivos básicos.
  • Conceitos básicos.
  • Solr Admin UI.
  • Adicionando conteúdo ao Solr.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

Índices

  • Estrutura dos dados.
  • Formatos de dados (XML, JSON, CSV).
  • Estrutura de índices.
  • Adicionando tipos de campos personalizados.
  • String X Text.
  • Tokenizers.
  • Char filters.
  • Filters.
  • Copy fields.
  • Spacial data.
  • Spacial Filters.

Configurações

  • Configurações do Lucene.
  • Configurações do Schema factory .
  • Schema API.
  • Configurações da API.
  • Gerenciando recursos.
  • Codecs.
  • Merge policy.
  • Merge Schedulers.

Cluster Solr e Tuning.

  • Solr Master-Slave.
  • Solr Replication.
  • Solr Master-Master
  • Instalando um cluster Master-Slave.
  • Indexing buffer size.
  • Caches.
  • Auto commit tunning.
  • Warming up.

API e Lucene Search

  • Usando JSON request API.
  • Pesquisas usando JSON Query.
  • Funções de Agregação.
  • Nested Faceting.
  • Codificando com Lucene.
  • Extraindo texto com Apache Tika.
  • Lucene Query Language.
  • Usando cursores.
  • Paginação e ordenação.
  • Querys e funções espaciais.
  • Solr in Java.

Solr e Java.

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Conectando ao Solr com Java.
  • Indexando documentos com java.
  • Indexando documentos com Java Beans.
  • Pesquisando nos indíces.
  • Deletando documentos com Java.

SolrCloud.

  • Introdução ao Zookeper.
  • Arquitetura do SolrCloud.
  • Usando JSON request API.
  • Solr Master-slave X SolrCloud.
  • Solr ZooKeeper CLI (SolrZKClient).
  • Sharding.

Backup do Solr.

  • Backup Solr master-Slave.
  • Backup Solr Cloud.

Monitoramento do Solr.

  • Monitoramento com uso do JMX.
  • Monitoramento com SPM.
  • Métricas de Monitoramento.
  • Prometheus Exporter.
  • Solr-exporter.
  • GrafanaSolr Dashboard.

Analise de dados.

  • Faceting.
  • Casos de uso.
  • Campos Faceting.
  • Prefixo de Campos Faceting.
  • Range Faceting.
  • Query Faceting.
  • Sort Faceting.
  • Hierarquia do Faceting.
  • Intervalo do Faceting.

 

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Solr e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Solr e cursos Solr. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Python para Devops

O treinamento Python para Devops prepara profissionais para o mercado junto aos conceitos de DevOps. Seu conteúdo programático foi desenvolvido para que profissionais possam desenvolver scripts em Python com foco na administração de tarefas de ambientes computacionais, extração de dados entra databases (SQL e NoSQL), consumo e extração de APIs e automação de infraestrutura em diferentes serviços de nuvens.


Conteúdo Programático.

Introdução a Linguagem Python e a DevOps.

  • O que é Python?
  • O que é DevOps?
  • Apresentando Python.
  • IDE para Python.

Instalação o Python.

  • Instalação e configuração.
  • Versões do Python.
  • Conhecendo o pip.
  • Como instalar pacotes.
  • Instalando o boto3.
  • Instalando IDEs Python.

Programando em Python.

  • Tipos de dados em Python
  • Trabalhando com strings, números e booleanos.
  • Trabalhando com listas, tuplas e dicionários.
  • Estrutura de dados e conversão de tipos.
  • Operadores e condições.
  • Blocos de repetições.
  • Controle de Loop.
  • Estrutura do bloco de exceção.
  • Tipos de exceções.
  • Criar exceções.
  • Manipular arquivos.

Funções e Orientação Objeto.

  • Escopo de variáveis e sintaxe de funções.
  • Parâmetros e argumentos.
  • Funções anônimas.
  •  Método construtor e atributos.
  • Herança e Polimorfismo.

Manipulação de Banco de Dados.

  • SQL X NoSQL.
  • Consultando Dados PostgreSQL com Python.
  • Comando Básicos SQL em PostgreSQL.
  • Criando um database.
  • Inserindo registros.
  • Consultando Dados MongoDB com Python.
  • Comandos Básicos MongoDB.
  •  Criando collection.
  • Inserindo documento e subdocumentos.
  • Trabalhando e Gravando Logs no MongoDB.

Consumindo e Construindo APIs .

  • Modulo Requests.
  • POST, GET, PUT, DELETE.
  • Instalando Flask para construir uma API.
  • Conhecendo Estrutura Básica.
  • Criando Rotas e Views.
  • Conhecento e Trabalhando com JSON.
  • REST API.

PyOPS.

  • Python e Docker.
  • Importando módulos.
  • Criando regras de negócios.
  • Comunicação entre módulos MongoDB e Docker
  • Realizando deploy de uma aplicação.

Python para Administração da AWS.

  • Básico de AWS.
  • Criando o módulo AWS.
  • Listar instâncias EC2.
  • Criando nova instância.
  • Gerenciando Instância.
  • Deploy de aplicação

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.

Requisitos:

  • Os alunos devem ter ou criar uma conta na AWS com antecedência.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Python e cursos Python. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 20 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

4.245 profissionais capacitados em 351 turmas ministradas.

Atuação global, 833 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Log in