RabbitMQ

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Desenvolvimento de Aplicações com Dart

Sobre o Treinamento

O treinamento em desenvolvimento com Dart passa uma visão conceitual e prática de como trabalhar com a linguagem Dart para o desenvolvimento de Aplicações.

O Dart (originalmente denominada Dash) é uma linguagem de script voltada à web desenvolvida pela Google. Ela foi lançada na GOTO Conference 2011 com inicialmente a de substituir a JavaScript como a linguagem principal embutida nos navegadores. Programas nesta linguagem podem tanto serem executados em uma máquina virtual quanto compilados para JavaScript. Em 2013, foi lançada a primeira versão estável, Dart 1.0. Em agosto de 2018 foi lançado o Dart 2.0, um reboot da linguagem, otimizado para o desenvolvimento client-side para Web e dispositivos móveis.

Objetivo

Ministrar as principais características da linguagem de programação Dart junto a uma visão geral das funcionalidades.

Público alvo do treinamento

Programadores, Desenvolvedores.

Turmas Somente inCompany

 

Conteúdo Programático

Conceitual.

  • Linguagens de programação Web modernas.
  • HTML5.
  • Orientação a Objetos.
  • Free Software X Open Source.
  • Comunidade Dart.

Introdução ao Dart.

  • A linguagem Dart.
  • Histórico do Dart.
  • Empresas usando Dart no Mundo.
  • Empresas usando dart no Brasil.
  • Licenciamento do Dart.
  • Sistemas Operacionais suportados.
  • Requisitos.

Instalação do Dart

  • Instalando o Dart SDK.
  • Instalando o Dart Editor.

Tipos de variáveis.

  • Integer.
  • Float.
  • Strings
  • Dinâmicas.
  • Date e Time.
  • List.
  • Maps.
  • Conversão de tipos.

Condicionais no Dart

  • Condicional If.
  • Condicionais Booleanas.

Laços de Repeticão.

  • While.
  • For.

Orientação a Objeto com Dart

  • Abstração classes e métodos..
  • Composição de classe.
  • Get.
  • Set.
  • Construtores.
  • Polimorfismos.
  • Herança / Extends.
  • Herança / Implements.
  • Mixin / With.
  • Conflitos.

Funcionalidades e Características.

  • Comentários.
  • Funções em Dart.
  • Bibliotecas.
  • Compilando Dart.
  • Compilando para JavaScript.

Handling DOM.

  • Buscando elementos.
  • Alterando atributos do elemento.
  • Manipulando o style da página.

HTML5 com Dart.

  • HTML5 forms.
  • Validação de dados.
  • Store Data.
  • Alterando e atualizando dados.

Client Server.

  • JSON Web Services.
  • Drivers de banco de dados.
  • MariaDB e MongoDB.

Assuntos Gerais

  • Dartlero.
  • Flutter e Dart.
  • Polymer.dart.
  • IndexDB.
  • Cases.
  • Mercado de trabalho.
  • Certificações.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico em Programação e Lógica.
  • Conhecimento Básico em Banco de Dados e SQL.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM: 4 GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais:Qualquer.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Dart e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas, Durante o curso uma pequena aplicação será desenvolvida para validar os conhecimentos e seguir em um raciocínio prático.

Inscrições, Informações e Valores

Powered by BreezingForms


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento MinIO - Kubernetes Native Object Storage

O treinamento MinIO foi elaborado para apresentar e conceituar o Kubernetes Native Object Storage através de implementações práticas. O MinIO oferece suporte à mais ampla variedade de casos de uso no maior número de ambientes. Nativo da nuvem desde o início, o pacote definido por software do MinIO funciona perfeitamente na nuvem pública, nuvem privada e edge, e tornando-se um líder em nuvem híbrida e armazenamento de objetos em várias nuvens. Com desempenho líder da indústria e escalabilidade, MinIO pode fornecer uma variedade de casos de uso de AI / ML, análises, backup / restauração e web moderna e aplicativos móveis.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade: Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando o MinIO 8.4.3 e foi modificado pela última vez em 21 de Maio de 2023.

Conteúdo Programático

Conceitual.

  • Introdução a Containers.
  • Introdução ao Docker.
  • Introdução ao Kubernetes.
  • Introdução a Multi Cloud.
  • Object Store.
  • S3 e MinIO.
  • Software Livre x Open Source.
  • Licenciamento.
  • Histórico do MinIO.
  • Empresas usando MinIO no Mundo.
  • Empresas usando MinIO no Brasil.
  • Comunidade MinIO.
  • Versões do MinIO.
  • Casos de Uso com MinIO.

Instalando o Ambiente.

MinIO Object Storage.

  • Escalabilidade.
  • Cloud Native.
  • Compatibilidade com Amazon S3.
  • Buckets
  • Versioned Buckets.
  • Object Locking.
  • Object Retention Modes.
  • GOVERNANCE Mode.
  • COMPLIANCE Mode.
  • Legal Hold.
  • Interaction with Versioning.
  • Lifecycle Management.
  • Object Expiration.

Arquitetura e Funcionalidades do MinIO.

  • Erasure encoding.
  • Encryption.
  • CR - Continuous replication.
  • Multi-cloud gateway.

MinIO Server.

  • MinIO Server.
  • MinIO Console.
  • Configurações do Server.
  • Drive location.
  • Distributed instance.
  • Distributed setup.
  • Running sample applications.
  • Bucket notification.
  • Migrando Configurações.
  • Multiple tenants.

MinIO Client.

  • MinIO Client.
  • Adicionando o cloud service storage.
  • Comandos MinIO Client.
  • Shell Aliases.
  • mc sql (S3 Select)
  • mc sql com Apache Parquet.

Aplicações.

  • Executando exemplos de aplicações.

Segurança.

  • Policy-Based Access Control (PBAC).
  • Tag-Based Policy Conditions.
  • Built-In Policies.
  • Policy Document Structure.
  • Supported S3 Policy Actions.
  • Supported S3 Policy Condition Keys.
  • Policy Action Keys.
  • TLS certificates.
  • Configuração de acessos no MinIO Server com TLS.

API e SDK MinIO.

  • MinIO Endpoints.
  • Java Client API.
  • Python Client API.
  • Boto3 - AWS SDK para Python.

Replicação e Balanceamento.

  • Replicação de Sites.
  • Cenários de Replicação.
  • Considerações arquitetônicas.
  • Load balance MinIO.
  • Health Checks.
  • Distributed MinIO Deployment.

Deploy do MinIO.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico containers (Docker).
  • Conhecimento Básico de Linux/Shell.
  • Conhecimento Básico de Infraestrutura e Redes.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Virtualbox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares MinIO e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos MinIO e cursos MinIO. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Kubeflow - Machine Learning Toolkit for Kubernetes

O treinamento Kubeflow foi elaborado para apresentar e conceituar a plataforma de aprendizado de máquina Kubeflow, conhecido como Machine Learning Toolkit para Kubernetes a plataforma é de código aberto e projetada para permitir o uso de pipelines de aprendizado de máquina orquestrados em fluxos de trabalho complicados em execução no Kubernetes. Atende as necessidades da MLOps, sendo o cientista de dados o profissional mais atuante nesta ferramenta com apoio das facilidades de deploy do Kubernetes.

Calendário de turmas.

Somente no modelo corporativo no momento.

Dificuldade: Avançado.

Aplicabilidade.

Este treinamento foi desenvolvido usando o Kubeflow 1.6.1 e foi modificado pela última vez em 7 de Janeiro de 2023.

Conteúdo Programático

Conceitual.

Introdução as Ferramenta de Machine Learning no Kubeflow.

  • Linguagem Python.
  • Jupyter Notebook.
  • Chainer.
  • Scikit-learn.
  • PyTork.
  • MPI.
  • TensorFlow.
  • XGBoost.

Kubeflow Applications e Scaffolding

  • Chainer Operator.
  • MPI Operator.
  • pyTork Operator.
  • XGBoost Operator.
  • Fainring.
  • TensorFlow batch prediction.

Instalação e arquitetura.

Distribuições Kubeflow.

  • Kubeflow no Google Cloud.
  • Kubeflow no AWS.
  • Kubeflow no Azure.
  • Kubeflow no OpenShift.

Kubeflow.

  • Kubeflow UI.
  • Central Dashboard.
  • Kubeflow Notebooks.
  • Models.
  • Volumes.
  • Experiments (AutoML).
  • Experiments (KFP).
  • Kubeflow Pipelines.
  • KFServing.
  • Katib.
  • Training Operators.
  • Runs.
  • Recurring Runs.
  • Artifacts.
  • kubeflow API.
  • Kubeflow SDK.
  • Multi-Tenancy.

ML Kubeflow.

  • Fase Experimental.
  • Fase em Produção.

Ferramentas Kubeflow.

  • Kfctl.
  • Kustomize.
  • KFServiing.
  • Kubeflow pipeline.

Add-Ons.

  • Elyra.
  • Istio.
  • Kale.
  • Fairing.
  • Feature Store.
  • Tools for serving

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico containers.
  • Conhecimento Básico de Machine Learning e Data Science.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: ideal 16GB e mínimo : 10GB
  • Espaço em Disco: Ideal 45GB e mínimo 30 GB.
  • Processadores: 64 bits (chipsets de x64).
  • CPU: 6 CPUs/núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Virtualbox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Kubeflow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Kubeflow e cursos Kubeflow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

 

Instrutor.

 

Leia mais...

Treinamento Rancher

Sobre o treinamento

O treinamento Rancher prepara profissionais para o mercado de orquestração de contêineres Docker e Kubernetes. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções complexas em ambientes nuvem públicas ou privadas.

O Rancher é uma ferramenta Open Source que serve para administrar e gerenciar uma infraestrutura de Docker e Kubernetes em produção, assim como efetuar deploy de apps usando Docker. O deploy pode ser local ou em servers remotos como AWS, Google Cloud e Microsoft Azure.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Rancher.

  • Orquestração de contêineres.
  • Ferramentas de orquestração de contêineres.
  • Ecossistema Kubernetes.
  • O projeto Rancher.
  • Histórico do Rancher.
  • Suse e Rancher Labs.
  • Motivações para criação do Rancher.
  • Fundamentos do Rancher.
  • Licenciamento do Rancher.
  • Cases do uso do Rancher.
  • Empresas usando Rancher no Mundo.
  • Empresas usando Rancher no Brasil.
  • Comunidade Rancher.

Arquitetura e terminologias.

  • Arquitetura do Rancher.
  • Authentication Server.
  • Rancher server.
  • Rancher Server API.
  • etcd.
  • Cluster Controler.
  • Cluster Agent.
  • Kubelet.
  • RKE (Rancher Kubernetes Engine).
  • K3s (Lightweight Kubernetes).
  • RKE2.
  • RancherD.

Instalação do Rancher.

  • Instalação do Rancher.
  • Instalando Kubernetes Single-node.
  • Instalando Kubernetes Cluster.
  • Instalando Docker.
  • Internacionalização do Rancher.

Componetes do Rancher.

  • Rancher CLI.
  • Rancher UI.
  • Rancher API.
  • Nodes e Node Pools.
  • Project Administration.
  • Pipelines.
  • Apps e Marketplace.
  • Fleet.

Rancher Pipelines.

  • Conceitos.
  • Pipelines Work.
  • Docker Registry.
  • Version Control Providers (github, gitlab e bitbucket).
  • Repositories.
  • .rancher-pipeline.yml.
  • Configuration Reference.
  • Executando Pipelines.
  • Triggering a Pipeline.
  • Event Triggers.

Rancher e Clusters.

  • Kubernetes Clusters no Rancher.
  • Gerenciando Clusters no Rancher.
  • Gerenciando Nodes.
  • Gerenciando Volumes e Storages.
  • Gerenciando Projects, Namespaces e Workloads.
  • App Catalogs.

Segurança e autenticação.

  • Tipos de Autenticação no Rancher.
  • Pod Security Policy.
  • Access Control de Pipelines.

Alertas e Monitoramento.

  • Configurando Ferramentas.
  • Alerts.
  • Notifiers.
  • Logging.
  • Monitoring.
  • Istio Service Mesh.

Rancher API.

  • Authentication.
  • Making requests.
  • Filtering.
  • Sorting.
  • Pagination.

Backup e Restore.

  • rancher-backup.
  • kube-apiserver.
  • rancher-backup Operator.
  • Backing up Rancher
  • Restoring Rancher.
  • Migrando o Rancher.

Tópicos Diversos.

  • Overview de Integração Rancher com Prometheus.
  • Overview de Integração Rancher e Grafana.

Carga Horária:

  • 24 Horas de duração

Pré-Requisitos:

  • Conhecimento de comandos e servidores GNU/Linux.
  • Conhecimento básico de redes (Proxy, DNS, etc).
  • Conhecimento Básico em Docker e Kubernetes.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Rancher e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações (em turmas presenciais).

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos Brasil, América Latina, Europa e África com treinamentos Rancher e cursos Rancher. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores.

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Kafka para Administradores.

Sobre o Treinamento

O treinamento Apache Kafka  para administradores é voltado para administradores do cluster Kafka que pretende obter alta performance em Kafka. O treinamento tem diversas atividades práticas simulando uma implantação de um cluster Kafka a um ambiente complexo de processamento de dados. com foco na administração e infraestrutura. 

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • Streaming.
  • Stream X Batch.
  • Eventos.
  • Dados Distribuídos.
  • JBOD(Just a Bunch of Disks).
  • Real-time Stream.
  • CDC – Change Data Capture.
  • Projeto Apache Kafka.
  • História do Apache Kafka.
  • Apache Software Foundation.
  • Kafka x RabbitMQ X Spark Stream X Flink Stream.
  • Licenciamento (Free Software X Open Source).
  • Motivações para usar Streaming.
  • Empresas usando Kafka no mundo.
  • Empresas usando Kafka no Brasil.
  • Versões do Apache Kafka.
  • Confluent Plataform.
  • Comunidade Apache Kafka no Brasil e no Mundo.
  • Livros, sites, documentação e referências.

Instalação do Kafka

  • Planejando requisitos de Hardware.
  • Planejando requisitos de Memória.
  • Planejando requisitos de CPU.
  • Instalando Java/JDK.
  • Configurações da memória Heap do Java.
  • Instalando o rodando o Kafka.
  • Configurações iniciais do Kafka.

Fundamentos do Kafka

  • Kafka Producer.
  • Kafka Consumers.
  • Kafka Brokers.
  • Local Storage.
  • Tempo de retenção.
  • Política de retenção.
  • Poll.
  • Mensagens.
  • Tópicos.
  • Particionamentos.
  • Segmentos.
  • Log.
  • Kafka Data Model.

Arquitetura do Apache Kafka.

  • Kafka Commit Log.
  • Replicação e Alta Disponibilidade.
  • Particionamento e Consumers Group para Escalabilidade.

Schema Registry.

  • Terminologia do Schema Registry.
  • Requisitos do Schema Registry.
  • Instalação do Schema Registry.
  • Configuração do Schema Registry.
  • Executando o Schema Registry em Produção.
  • Transaction Topic.
  • Schema Definition.
  • Client Applications.
  • Java Producers e Consumers com Schema Registry.
  • Gerenciamento do Schema Registry.
  • Compatibilidade de Tipos.
  • Migração d Schemas.
  • Backups e Restores.

Kafka Cluster.

  • Apache Zookeeper.
  • Arquitetura do Apache Zookeeper.
  • Fator de Replicação.
  • Estratégias de Particionamento.
  • Particionamentos customizados.
  • Liderança de Partições.
  • Load Balancing.
  • Testando o Cluster.
  • CLI Tools.
  • Expandindo seu cluster.
  • Incrementando o fator de Replicação.

Monitoramento e Alertas do Clusters Kafka.

  • Melhores práticas.
  • Estratégias de Monitoramento.
  • Monitoramento com JMX.
  • Ferramentas Open Source de Monitoramento.
  • Métricas de monitoramento da JVM.
  • Métricas de monitoramento do SO.
  • Métricas de monitoramento do Kafka.
  • Métricas de monitoramento do Zookeeper.
  • Nível de severidade.
  • Burrow X Cruise Control.

Testes de Desempenho no Cluster Kafka.

  • Ferramentas, estratégias e análises de resultados.
  • Execução de testes de carga.
  • Ações corretivas e de investigação.
  • Avaliação do resultados.

Kafka Cruise Control.

  • Introdução ao Kafka Cruise Control.
  • Cruise Control Frontend.
  • Arquivos de configuração para estratégia JBOD.
  • Entendimento das informações da interface Web
  • Kafka broker resource utilizando tracking.
  • Detecção de Anomalias com self-healing.
  • Execução de otimização.

Tópicos Avançados.

  • Kafka com Docker e Kubernetes.
  • Deploy com arquivo WAR.
  • Scalable Data Pipeline.
  • Log Compactado.
  • Segurança.
  • Autenticação e Autorização.
  • Criptografia.

Carga Horária:

  • 24 Horas.

Pré-Requisitos:

  • Conhecimento Básico em comandos Bash Shell/Linux.
  • Conhecimentos de Redes e Infraestrutura.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB.
  • Espaço em Disco: 20 GB.
  • Processador: 4 Cores.
  • Sistemas Operacionais: GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Kafka e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Kafka e cursos Kafka. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Hop

Sobre o Treinamento

O treinamento é recomendado a profissionais que busca maximizar seus conhecimentos em processos de ETL (Extract, Transform e Load). O Apache Hop e um projeto incubado na Apache Software Foundation fork do Pentaho Data Integration,  é uma poderosa ferramentas para transformações de dados (ETL), você pode fazer tarefas como migração de dados, transformação de dados, conversões de sistemas ou carga de bancos de dados, além de tarefas avançadas como transferência de arquivos, envios de e-mails, integração com webservices (SOAP ou REST) e programações de scripts com schedules.

Calendário de turmas abertas APACHE HOP

  1. Online Ao Vivo
  • Data: e -
  • Local:Online Ao Vivo
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Hop para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático:

Conceituais:

  • Introdução a Business Intelligence.
  • Introdução a Datawarehouse.
  • O que é ETL? (Extração, Transformação e Carga).
  • Histórico do Apache Hop.
  • Licenciamento do Apache Hop.
  • Software Livre x Open Source.
  • A Apache Software Foundation.
  • Diferenças do Pentaho Data Integration X Talend X Apache Hop.
  • Empresas usando Apache Hop no Mundo.
  • Empresas usando Apache Hop no Brasil.
  • A Empresa Lean.
  • Plataforma Lean: Orquestration, Presentation e Knowledge.
  • Comunidade Apache Hop.

Instalação - Apache Hop

  • Pré-requisitos.
  • Instalação do Apache Hop.
  • Ambiente Server (Produção e Desenvolvimento).
  • Configurações do Apache Hop.

Fundamentos do Apache Hop

  • Arquitetura do Apache Hop.
  • Componentes do Apache Hop.
  • Hop GUI.
  • Hop Server.
  • File Dialog.
  • Hop Web.
  • Conexões.
  • Hop Conf.
  • Hop run.
  • Hop Search.
  • Hop-encrypt.
  • Hop Import.
  • Hop Translate.

Pipelines com Apache Hop

  • Pipeline Editor.
  • Criando um Pipeline.
  • Executando Previsualizando e Debugando um pipeline
  • Configurações de execução de pipelines.
  • Tests Unitários.
  • Metadata Injection.
  • Transformações.
  • Logs do pipeline.

Desenvolvendo Pipelines.

  • Transformando dados em bases de dados Dimensionais (OLAP).
  • Integração entre Sistemas Transacionais.
  • Trabalhando com Merge de dados.
  • Trabalhando com constantes.
  • Explorando componentes.
  • Enviando e-mails.
  • Transformando Planinhas em bases de dados SQL.
  • Transformando Base de Dados SQL em Planinhas.
  • Transformando arquivos texto em bases de dados SQL.
  • Transformando Base de dados SQL em arquivos Texto (posicional ou delimitado).
  • Trabalhando com Webservices (REST e SOAP)
  • Manipulando arquivos JSON.
  • Trabalhando com  arquivos XML.
  • Manipulando o pipeline com Javascript.
  • Implementando condicionais.
  • Componentes para Big Data.

Workflows Apache Hop

  • Criando um Workflow.
  • Executando e Debugando um workflow.
  • Configurações de execução de Workflows.
  • Logs do Workflow.
  • Manipulando file Systems.
  • Trabalhando com transferências de arquivos (FTP, SSH, etc).

Funcionalidades Complementares Apache Hop

  • Automatizando Workflows e Pipelines.
  • Variáveis.
  • Passando parâmetros via linha de comando.
  • Passagem de parâmetro entre pipelines e workflows.
  • Virtual File System - AWS S3.
  • Virtual File System - Microsoft Azure Storage.
  • Virtual File System - Google Cloud Storage
  • Virtual File System - Google Driver.
  • Trabalhando com Logs.
  • AES Password encoder.

API REST do Apache Hop

  • Configurando a API REST.
  • Consumindo a API REST.

Hop – Plugins

  • Principais plugins do Apache Hop.
  • Instalando um plugin.
  • Overview de Desenvolvimento de um plugin.

Apache Hop - Itens Gerais

Pré-Requisitos

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Carga Horária

  • 24 Horas de Duração

MODALIDADES DE TREINAMENTO

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Hop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Hop e cursos Apache Hop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Próxima turma:

 

  • Data: - -
  • Local: Online Ao Vivo
  • Inscreva-se
 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Metabase

O treinamento em Metabase tem foco em ensinar como explorar, organizar e visualizar dados e realizar investigações, apresentando sua interface intuitiva para visualizar conjuntos de dados e criar painéis, e usando o construtor de visualização sem código para extrair e apresentar conjuntos de dados com a a maioria dos bancos de dados SQL do mercado.
Metabase é a maneira fácil e de código aberto para que todos em sua empresa façam perguntas e aprendam com os dados.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Data Visualization.
  • O Software Metabase.
  • Software Livre x Open Source.
  • Licenciamento.
  • Histórico do Metabase.
  • Empresas usando Metabase no Mundo.
  • Empresas usando Metabase no Brasil.
  • Comunidade Metabase.
  • Versões do Metabase.
  • Community X Enterprise.

Metabase.

  • Arquitetura do Metabase.
  • Componentes do Metabase.
  • Database e Data Lake.
  • Data Model.
  • Data sandbox.
  • Datawarehouse.
  • Dimensão.
  • Chave primária.
  • Medida.
  • Embedding.
  • Metabase Admin.
  • Permissões.

Instalação e configuração.

  • Requisitos de instalação.
  • Configurações do Java.
  • Versão do Java.
  • Instalando Metabase.
  • Metabase com Docker.
  • Metabase com Kubernetes.

Conexões.

  • Criando conexões.
  • Bancos suportados.
  • Data Preferences.
  • Pesquisa.

Analisando Dados.

  • Consulta com base em pergunta simples.
  • Consulta com base em pergunta customizada.
  • Consulta Nativa.
  • Sumarizando.
  • Gerando gráficos.
  • Filtros.
  • Joins.
  • Time Series.
  • Custom Expression.
  • Alertas.
  • Column.
  • Custom Column.
  • Cross-filtering
  • Breakout.
  • Custom Destionation.
  • Custom Question.
  • Collection.

Data Visualization

  • Dashboard.
  • Tipos de gráficos.
  • Dashboard subscription.
  • Gráficos Embeded.
  • Compartilhando Dashboards.
  • Notebook Editor.

API

  • API Metabase.
  • Autenticação.

Carga Horária.

  • 16 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou Mac OS)
  • Conhecimento Básico de de SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todo o software Metabase e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Metabase e cursos Metabase . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Spark com Databricks Plataform

O curso ou treinamento Apache Spark com Databricks foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark da DataBricks na AWS (Amazon Web Services), Microsoft Azure ou Google Cloud, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework Apache Spark. Entender as principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark e interações com outros projetos do ecossistema DataBricks necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.

Turmas Somente inCompany

Conteúdo Programático

Conceitual Big Data e Databricks

  • Visão geral sobre Databricks.
  • Databricks Plataform.
  • Databricks Community X Databricks Premium.
  • Ecossistema Databricks.
  • Quem usa o Databricks.
  • Cases do uso Databricks.
  • Free Software(GLP) X Open Source(BSD e Apache).
  • Delta Lake.
  • Databricks na AWS.
  • Databricks na Azure (Azure Databricks).
  • Databricks Community.
  • change data capture (CDC).
  • Data engineering.
  • Scala X Python.

Cluster na Cloud.

  • Configurando o Ambiente na Azure.
  • Databricks Job scheduling.
  • Deploy Structured Streaming.

Notebooks.

Introdução a Linguagem Scala

  • Apresentando o Scala.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive -  Interactive Scala.
  • Escrevendo scripts Scala - Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Linguagem Scala.

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala Para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.
  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala.

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Apache Spark no DataBricks.

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset no Databricks.

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Scala e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

SparkSQL e Dataframe no Databricks.

  • Dataframe.
  • SparkSQL
  • DataSets.
  • SparkSQL API.

Armazenamento

  • Databricks File System - DBFS.
  • Databricks IO Cache.
  • Amazon S3.
  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Streaming e Delta

  • Spark Structured Streaming.
  • Spark Streaming Transformations.
  • Streaming Windows Transformations.
  • Create Dataframes.
  • Save DataFrames.
  • Tables and DataFrames.
  • Event Stream Processing (ESP).
  • Complex Event Processing (CEP).

Gerais

  • Visualizations.
  • SparkML.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Todos alunos devem ter uma conta no Azure.
  • Conhecimento alguma linguagem de programação.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento RabbitMQ

O treinamento em RabbitMQ e voltado para Desenvolvedores, Arquitetos e Administradores que tem a necessidade de trabalhar com Message-broker e suas aplicações ou arquiteturas complexas.

O Software RabbitMQ é um sistema de mensagens corporativas altamente confiável que implementa o AMQP (Advanced Message Queuing Protocol).

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático.

Conceitual.

  • Introdução a Big Data.
  • Ecossistema de Filas.
  • O Software RabbitMQ.
  • Message-broker.
  • Advanced Message Queuing Protocol (AMQP).
  • MQ Telemetry Transport (MQTT)
  • Streaming Text Oriented Messaging Protocol (STOMP).
  • Software Livre x Open Source.
  • Pivotal.
  • Histórico do Parquet.
  • Empresas usando RabbitMQ no Mundo.
  • Empresas usando RabbitMQ no Brasil.
  • Comunidade RabbitMQ.
  • Versões do RabbitMQ.

RabbitMQ.

  • Arquitetura do RabbitMQ.
  • Consumer.
  • Producer.
  • Bindings consumers e producers.
  • Mensagens e durabilidade.
  • Como verificar a entrega.

Instalação do RabbitMQ.

  • Requisitos.
  • Pacotes e Repositórios.
  • RabbitMQ com Kubernetes Operator.
  • RabbitMQ com Docker.
  • Memória.

CLI Tools.

  • interface de linha de comando.
  • RabbitMQ CLI Tools.
  • rabbitmqctl.
  • rabbitmq-diagnostics.
  • rabbitmq-plugins.
  • rabbitmq-queues.

Administração do RabbitMQ.

  • rabbitmqadmin.
  • Start e Stop Nodes.
  • Configurações do RabbitMQ.
  • Privilégios.
  • Estatísticas e análise de registros.
  • Enviando alertas.
  • Processamento paralelo.
  • O plugin RabbitMQ Management.
  • Gerenciando RabbitMQ a partir do console da web.
  • Administração de usuários a partir do console da web.
  • Gerenciando a fila do console web.

Client Libraries.

  • Java Client.
  • Java e Spring.
  • Spring com RabbitMQ.
  • JMS Client.
  • Erlang Client.

Cluster RabbitMQ.

  • Arquitetura de um cluster.
  • Filas.
  • Configurando um cluster.
  • Distribuir os nodes.
  • Filas espelhadas.
  • Failover e Replication.
  • Load balancer-based.
  • Master/Slave.
  • Shovel.

RabbitMQ na Cloud.

  • Amazon EC2.
  • Tanzu RabbitMQ.

API REST.

  • API REST do RabbitMQ.
  • Estatísticas.

Gerais.

  • Pentaho Data Integration e RabbitMQ.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares rabbitMQ e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos em RabbitMQ e cursos em RabbitMQ. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Real-Time Analytics com Apache Spark Streaming e Python

O treinamento Real-Time Analytics com Apache Spark Streaming e Python foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data e Analytics em Real-Time, usando as tecnologias mais modernas para processamento massivo o Spark Streaming com apoio de bibliotecas Python como Pandas e Numpy, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de Open Source Apache Spark, usando os modulos Apache Spark Streaming e Spark Machine Leaning Lib. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs e DataFrames, e saber escrever scripts Spark com acesso a HDFS e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real e finalizar apresentando as informações em componentes de visualização de dados.

Calendário de turmas.

Somente turma corporativas.

Conteúdo Programático

Conceitual Big Data e Streaming.

  • Streaming de Dados.
  • Stream X Batch.
  • Real-time Stream.
  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera x Hortonworks x Apache).
  • Free Software(GLP) X Open Source(BSD, Apache, etc)
  • Apache Software Foundation.
  • Kafka x RabbitMQ x Spark Stream x Flink Stream.

Instalação do Ambiente Python e Spark.

  • Pré-requisitos.
  • Instalando o Python.
  • Instalando uma IDE Python.
  • Conhecendo o PyPI.
  • Instalando Pandas.
  • Instalando Numpy.
  • Instalando Pyarrow.
  • Instalando Py4J.
  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Programação Funcional em Python e PySpark.

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.
  • PySpark.
  • Python Package Management.
  • Virtualenv.
  • PEX.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark SQL e PySpark.

  • DataFrame API.
  • Spark SQL.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • UDF.
  • Spark Session.
  • Column API.
  • Data Types.
  • Row.
  • Function.
  • Window.
  • Grouping.

Apache Spark e Pandas.

  • Apache Arrow.
  • Convertendo dados para o Pandas.
  • Pandas UDF.
  • Pandas Function.
  • PyArrow.

Analise de Dados com Python.

  • NumPy.
  • Pandas.
  • Slicing com NumPy.
  • Reshaping Arrays.
  • Pandas e Dataframes.
  • Pandas - Multi Dimension.
  • Pandas - Group By.
  • Pandas - Rashape.
  • Map,Filter e Reduce.
  • Lambda.
  • NumPy - Join,Split.
  • Array Numpy.
  • SQL Join Tables Pandas.
  • Pandas, NumPy e PySpark.

Apache Spark Streaming

  • Spark Streaming.
  • Query Management.
  • Fluxo do Streaming de Dados.

Apache Spark MLlib

  • Machine Learning com Apache Spark.
  • Aprendizagem Supervisionada.
  • Aprendizagem Não Supervisionada.
  • Aprendizagem por Reforço.
  • MapReduce com PySpark.
  • DStreams.
  • Spark MLLib - Regressão Linear.
  • Spark MLLib - Classificação com Algoritmo Decision Tree.
  • Spark MLLib - Classificação com Algoritmo Random Forest.
  • Spark MLLib - Classificação com Algoritmo Naive Bayes.
  • Spark MLLib - Clusterização com Algoritmo K-Means.
  • Spark MLLib - Algoritmos de Recomendações.

Data Visualization Tools.

  • Técnicas de Data Visualization.
  • Matplotlib.
  • Seaborn.
  • ggPlot.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação e Python.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações (Quando presencial).

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Log in