Programação

Treinamento em Modelagem Dimensional

Sobre o Treinamento

Este treinamento é recomendado a técnicos, desenvolvedores, DBAs e gestores que buscam uma visão aprofundada do conceito de modelagem dimensional para construção de Data Warehouses em projetos de Business Intelligence. O mesmo não é focado em ferramentas e sim em toda a abrangência conceitual. Ao final do treinamento algumas atividades práticas são desenvolvidas sobre uma ferramenta para aplicar os conceitos adquiridos fortalecendo o conhecimento com a prática.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos sobre modelagem dimensional e sua aplicação na construção de um Data Warehouse.

Público Alvo

O Treinamento Modelagem Dimensional destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas,  que tenham conhecimento em Bancos de Dados.

Conteúdo Programático:

Introdução

  • Introdução a Business Intelligence.
  • Introdução a Modelagem Dimensional.
  • Introdução a Data Warehouse.
  • Introdução a DataMart.
  • MDA - Master Data Management.
  • MDA X DW.
  • ETL (Extract Transform e Load) e Data Integration.
  • OLAP - Online Analytical Processing.
  • OLTP - Online Transaction Processing.
  • OLTP X OLAP.
  • ROLAP, MOLAP, HOLAP, DOLAP e WOLAP.

Modelagem Dimensional

  • Modelo Dimensional Estrela (Star Schema) - Ralph Kimball.
  • Modelo Floco de Neves (Snowflaking) - Bill Inmon.
  • Star Schema x Snowflaking.
  • Drill-down e Roll-up.
  • Drill-across.
  • Drill-throught.

Data Warehouse

  • Data warehouse Híbrido.
  • Ciclo de Vida do Data warehouse.
  • Passos da modelagem dimensional.
  • Data warehouse - Processo de Negócio
  • Estimativa de tamanho de um data warehouse.

Data Warehouse - Dimensões.

  • Tabela Dimensionais.
  • Normalização de dimensões.
  • Surrogate Key.
  • Business Key.
  • Hierarquia.
  • Atributo.
  • Dimensão Tempo.
  • Dimensão Degenerada (Degenerate Dimension).
  • Dimensões – Tipos 1, 2, 3 e técnicas híbridas.
  • Slowly Changing Dimensions (SCD) - Tipo 1.
  • Slowly Changing Dimensions (SCD) - Tipo 2.
  • Dimensão Lixo (Junk Dimension).

Data Warehouse - Fato

  • Data warehouse - Granularidade.
  • Tabelas Fato.
  • Fato Agregada.
  • Surrogate Key.
  • Surrogate Keys Negativas.
  • Métricas e Medidas.
  • Grão.
  • Definição de índices.

Modelagem na prática.

  • Modelando um Caso Real (Prático).

Implementação com Ferramentas Open Source.

Assuntos Complementares

  • Data Staging.
  • Agile.
  • Levantamento de Requisitos de Projetos de BI.
  • Os 10 mandamentos de Ralph Kimball.
  • Principais ferramentas de BI do Mercado.

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 24 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares da Pentaho e do PostgreSQL e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho, Modelagem Dimensional  e cursos sobre Data Warehouse. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Treinamento Geo Business Intelligence com Pentaho

Sobre o Treinamento

O treinamento Geo Business Intelligence com Pentaho é recomendado a profissionais que já conheçam o fundamental da Plataforma Pentaho e querem conhecer os recursos e suportes do Pentaho ligados a GIS, GEO e MAPPING. Este treinamento demonstrar recursos de integracão e manipulação de dados geo espaciais, os steps e suportes do Pentaho Data Integration e as formar de renderização e apresentação visual nos cubos OLAPs e Dashboards do Pentaho.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar as principais funcionalidades e suportes da Plataforma Pentaho com foco na construção de Mapas e tratamentos de dados geo espaciais, gerando informações para tomada de decisão.

Público Alvo

O Curso Geo Business Intelligence com Pentaho, destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, Cientistas de Dados , analistas de suporte entre outros profissionais envolvidos com gestão de dados espaciais.

Conteúdo Programático:

Introdução ao Pentaho Geo-Mapping

  • Visão geral do uso de Mapas no Pentaho.
  • Desafios de trabalhar com dados espaciais.
  • Principais recursos da plataforma Pentaho.

 Pentaho Data Integration e GEO MAPPING:

  • Manipulando dados geo espaciais com Pentaho Data Integration.
  • Instalando plugins adicionais no Pentaho Data Integration (PDI)
  • Trabalhando com latitude e longitude.
  • Step ESRI Shapefile Reader
  • Manipulando arquivos KML
  • PDI Gis Plugin.
  • MaxMind GeoIP Lookup
  • IP Locator Component
  • Onde Encontrar Base de Dados com Latitude e Longitude do Brasil

Mondrian e Geo Map

  • Criando uma dimensão com geo localização.
  • Suporte a Geo Map no Schema Mondrian
  • Annotations
  • Member properties

Construindo Dashboards com Mapas utilizando as CTools

  • Componentes Ctools para Mapas
  • New Map Component
  • Map Engine: Openlayers e Google Maps
  • Preparando o Datasource para os Mapas
  • Gerando Resultsets e metadados com PDI Datasource.
  • GeoCode
  • Filtrando dados em Mapas
  • Interatividade com Mapas nos Dashboards
  • Google Maps Overlay
  • IvyDC - Ivy Dashboard Components plugin
  • Visão geral dos Mapas em D3.js
  • Integrando D3.js Maps com CDE Dashboards
  • Integrando com a API do Google Maps

Pentaho Report e Geo Mapping

  • Adicionando Mapas ao PDR com as Ctools
  • Usando o CGG com Pentaho Report Designer (PRD)

 

Pré-requisitos de Conhecimento

  • Conhecimento básico em lógica de programação.
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.
  • Conhecimento básico de GIS/GEO
  • Conhecimento Básico em Pentaho Data Integration
  • Conhecimento Básico em Pentaho Report Designer
  • Conhecimento Básico em Mondrian e Saiku
  • Conhecimento Básico em Ctools

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 16 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Leia mais...

Treinamento Redis - Fundamental

Sobre o Treinamento

O treinamento fundamental Redis e voltado para administradores e desenvolvedores que querem conhecer este banco de dados ou armazenamento de estrutura de dados de chave-valor open source de memória. O Redis oferece um conjunto de estruturas versáteis de dados na memória que permite a fácil criação de várias aplicações personalizadas. Os principais casos de uso do Redis incluem cache, gerenciamento de sessões, PUB/SUB e classificações. É o armazenamento de key-value mais conhecido atualmente segundo o relatório da DB Engines (https://db-engines.com/en/ranking/key-value+store). Ele tem a licença BSD, é escrito em linguagem C otimizado e é compatível com várias linguagens de desenvolvimento. Redis é um acrônimo de REmote DIctionary Server (servidor de dicionário remoto). Por conta da sua velocidade e facilidade de uso, o Redis é uma escolha em alta demanda para aplicações web e móveis, como também de jogos, tecnologia de anúncios e IoT, que exigem o melhor desempenho do mercado.

Calendário de turmas abertas

Somente in Company.

Conteúdo Programático

Introdução

  • O que é um Redis.
  • Por que usar um banco de dados de memória?
  • O Projeto Redis.
  • Redis X ApsaraCache.
  • Licenciamento (Free Software X Open Source)
  • Caso de uso de Redis.
  • Empresas usando Redis no Mundo.
  • Empresas usando redis no Brasil.

Instalação e Configuração

  • Instalando o Redis.
  • Configurando o Redis.

Redis Security

  • Modelo de Segurança.
  • Segurança de rede.
  • Modo protegido
  • Autenticação.

Data Model

  • Tipos de Dados Primitivos
  • Abstrações.
  • Redis Keys.
  • Redis Strings
  • Redis Expires.
  • Redis Lists.
  • Redis Hashes.
  • Bitmaps.
  • Pub/Sub.
  • Módulos externos.

Desenvolvimento com Redis

  • Principais comandos.
  • Redis Lua scripting.
  • Pipeline.
  • Particionamento.
  • Otimização de memória.
  • Inserção em massa de dados.
  • Usando ETL Pentaho Data Integration para processo de inserção.
  • Distributed lock.
  • Secondary indexing.
  • Redis Lua scripts debugger.
  • Modules API.

Administração do Redis

  • Mecanismos de persistência disponíveis.
  • Precauções para evitar o desgaste do SSD.
  • Backup e restauração.
  • Ferramentas para explorar o conteúdo do banco de dados.
  • Ferramentas para análise de despejo.
  • Ajustando durabilidade X desempenho.
  • Alternando entre RDB e AOF.
  • Casos de uso para Redis sem disco.
  • Ajustáveis no nível do SO relevantes para Redis.
  • Monitorando o desempenho do Redis.
  • Backup and restore.

Alta Disponibilidade com Redis.

  • Instalar e configurar multi-Redis servers.
  • Standalone com várias instâncias.
  • Replicação Master/slave.
  • Cluster Redis HA com Sentinel
  • Redis sharding cluster.
  • Combinação de replicação Redis (com Sentinel) + capacidade de sharding
  • Monitoramento, backup/restauração e ajuste de desempenho para a instalação.

Carga Horária:

  • 24 Horas.
  • Presencial ou Ao Vivo Remotamente.

Pré-Requisitos:

  • Conhecimento básico em programação.
  • Conhecimento básico em banco de dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS (64 bits).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Redis e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Rediscursos Redis caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Treinamento Apache Flume

O Apache Flume é um serviço distribuído, confiável e disponível para coletar, agregar e mover de forma eficiente grandes quantidades de dados de registro. Possui uma arquitetura simples e flexível baseada em fluxos de dados de streaming. É robusto e tolerante a falhas com mecanismos de confiabilidade ajustáveis e muitos mecanismos de failover e recuperação. Ele usa um modelo de dados extensível simples que permite a aplicação analítica on-line. O nosso treinamento prepara os alunos para trabalhar com fluxos de dados streaming para dar suporte a aplicações analíticas de Big Data com base em atividades conceituais e práticas.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Streaming.
  • Introdução a Big Data.
  • Ecossistema Hadoop.
  • O Software Apache Flume.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • Histórico do Flume.
  • Empresas usando Flume no Mundo.
  • Empresas usando Flume no Brasil.
  • Comunidade Flume.
  • Versões.

Arquitetura.

  • Arquitetura do Apache Flume.
  • Flume NG.
  • Modelo de Fluxo de Dados.
  • Variáveis de Ambiente.

Instalando o Apache Flume.

  • Requisitos do Apache Flume.
  • Configurando o Apache Flume.
  • Instalando o Apache Flume.
  • Configurando Componentes.
  • Iniciando Agents.

Flume Sources.

  • Avro.
  • Thrift.
  • Exec.
  • JMS.
  • Taildir.
  • Apache Kafka.
  • HTTP Source.
  • Custom source.

Flume Sinks.

  • Data Ingestion.
  • Flume Sinks
  • HDFS Sink.
  • Hive Sink.
  • Avro Sink.
  • Thrift Sink.
  • HBase Sink
  • Flume Sink Processors.

Flume Channel.

  • Flume Channels.
  • Memory Channel.
  • JDBC Channel.
  • Kafka Channel.
  • File Channel.
  • Spillable Memory Channel.
  • Pseudo Transaction Channel.
  • ElasticSearch Sink.
  • Custom Channel.
  • Flume Channel Selectors.
  • Event Serializers.
  • Flume Interceptors.

Gerais.

  • Raw Data.
  • Instalando Plugins.
  • Flume Properties.
  • Network Streams.
  • Multi agents.
  • Consolidação.
  • Segurança no Apache Flume.

Carga Horária.

  • 16 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de de Hadoop e HDFS.
  • Conhecimento Básico de Kafka, JDBC e HBase.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Flume e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Flume e cursos Apache Flume . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Parquet

O treinamento em Apache Parquet tem foco em aprofundar o conhecimento de engenheiros de dados do formato mais utilizado pelos ambiente de Big data da atualidade, além dos conceitos, vantagens e arquitetura os profissionais poderão administrar a forma mais interessante do Parquet para seu ambiente de dados / big data. O treinamento passa pelo fundamental e estende-se ao avançado.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual.

  • Introdução a Big Data.
  • Arquivos serializados.
  • Formato Colunar.
  • O Software Apache Parquet.
  • Motivações do Parquet.
  • Software Livre x Open Source.
  • Licenciamento.
  • Apache Software Foundation.
  • Histórico do Parquet.
  • Empresas usando Parquet no Mundo.
  • Empresas usando Parquet no Brasil.
  • Comunidade Parquet.
  • Versões do Parquet.

Apache Parquet

  • Arquitetura do Apache Parquet.
  • Otimização com Parquet.
  • Parquet x JSON x CSV x Apache ORC.
  • Tipos de dados.
  • Block.
  • File.
  • Row group.
  • Column chunk
  • Page.
  • Metadata.
  • Nested Encoding.

Compactação e Criptogratia.

  • Tipos de Compactação.
  • Vantagens e Desvantagens.
  • Criptografia do Parquet.

Parquet no Ecossistema de Big Data.

  • Hive e Parquet.
  • Spark e Parquet.
  • Hadoop Input/Output e Parquet.
  • Pentaho Data Integration e Parquet.

Build

  • Apache Maven.
  • Compilando o Parquet.

Módulos

  • Apache Parquet for C++.
  • Apache Parquet em Rust.
  • Parquet MR.

Parquet na Cloud.

  • AWS S3 Inventory

Gerais.

  • Extendendo o Parquet.
  • Config Row group size.
  • Config Data page size

Carga Horária.

  • 4 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de de Hadoop e HDFS.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Parquet e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Parquet e cursos Apache Parquet . caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento RabbitMQ

O treinamento em RabbitMQ e voltado para Desenvolvedores, Arquitetos e Administradores que tem a necessidade de trabalhar com Message-broker e suas aplicações ou arquiteturas complexas.

O Software RabbitMQ é um sistema de mensagens corporativas altamente confiável que implementa o AMQP (Advanced Message Queuing Protocol).

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático.

Conceitual.

  • Introdução a Big Data.
  • Ecossistema de Filas.
  • O Software RabbitMQ.
  • Message-broker.
  • Advanced Message Queuing Protocol (AMQP).
  • MQ Telemetry Transport (MQTT)
  • Streaming Text Oriented Messaging Protocol (STOMP).
  • Software Livre x Open Source.
  • Pivotal.
  • Histórico do Parquet.
  • Empresas usando RabbitMQ no Mundo.
  • Empresas usando RabbitMQ no Brasil.
  • Comunidade RabbitMQ.
  • Versões do RabbitMQ.

RabbitMQ.

  • Arquitetura do RabbitMQ.
  • Consumer.
  • Producer.
  • Bindings consumers e producers.
  • Mensagens e durabilidade.
  • Como verificar a entrega.

Instalação do RabbitMQ.

  • Requisitos.
  • Pacotes e Repositórios.
  • RabbitMQ com Kubernetes Operator.
  • RabbitMQ com Docker.
  • Memória.

CLI Tools.

  • interface de linha de comando.
  • RabbitMQ CLI Tools.
  • rabbitmqctl.
  • rabbitmq-diagnostics.
  • rabbitmq-plugins.
  • rabbitmq-queues.

Administração do RabbitMQ.

  • rabbitmqadmin.
  • Start e Stop Nodes.
  • Configurações do RabbitMQ.
  • Privilégios.
  • Estatísticas e análise de registros.
  • Enviando alertas.
  • Processamento paralelo.
  • O plugin RabbitMQ Management.
  • Gerenciando RabbitMQ a partir do console da web.
  • Administração de usuários a partir do console da web.
  • Gerenciando a fila do console web.

Client Libraries.

  • Java Client.
  • Java e Spring.
  • Spring com RabbitMQ.
  • JMS Client.
  • Erlang Client.

Cluster RabbitMQ.

  • Arquitetura de um cluster.
  • Filas.
  • Configurando um cluster.
  • Distribuir os nodes.
  • Filas espelhadas.
  • Failover e Replication.
  • Load balancer-based.
  • Master/Slave.
  • Shovel.

RabbitMQ na Cloud.

  • Amazon EC2.
  • Tanzu RabbitMQ.

API REST.

  • API REST do RabbitMQ.
  • Estatísticas.

Gerais.

  • Pentaho Data Integration e RabbitMQ.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento Básico de Programação.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares rabbitMQ e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos em RabbitMQ e cursos em RabbitMQ. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento em Apache Solr

Sobre o Treinamento

O treinamento fundamental em Apache Sorl prepara profissionais para o mercado de indexação textual e documental para pesquisas elásticas e eficientes de fontes de big data ou de sistemas com que pretendem embutir o Solr como motor de busca textual. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes clusterizados para gestão de buscas textuais.

Modalidades do Treinamento:

  • In Company (Presencial ou Online) - Turmas fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático.

Conceitual Solr.

  • Introdução a Pesquisas.
  • A Apache Software Foundation.
  • Lucene/Solr.
  • Introdução ao Zookeper.
  • Solr no ecossistema de Big Data.
  • Text Analytics e Geo Search.
  • Terminologias.
  • Cases de Solr.
  • Empresas usando Solr no Brasil

Instalação do Solr.

  • Instalando um nó de Solr.
  • Iniciando o Solr.

Fundamentos do Solr

  • Arquitetura do Apache Solr.
  • Arquivos Básicos.
  • Conceitos Básicos.
  • Solr Admin UI.
  • Adicionando conteúdo ao Solr.
  • Alterando parâmetros da URL.
  • Adicionando conteúdo personalizado.
  • indexando coleções de documentos.
  • Deletando documentos.
  • Pesquisando Documentos
  • Operações de CRUD.

Índices

  • Estrutura dos dados.
  • Formatos de dados (XML,JSON,CSV)
  • Estrutura de índices.
  • Adicionando tipos de campos personalizados.
  • String X Text.
  • Tokenizers.
  • Char filters.
  • Filters.
  • Copy fields.
  • Spacial data.
  • Spacial Filters.

Configurações

  • Configurações do Lucene
  • Configurações do Schema factory .
  • Schema API.
  • Configurações da API.
  • Gerenciando recursos.
  • Codecs.
  • Merge policy.
  • Merge Schedulers.

Cluster Solr e Tuning

  • Solr Master-Slave.
  • Solr Replication.
  • Solr Master-Master
  • Instalando um cluster Master-Slave.
  • Indexing buffer size.
  • Caches
  • Auto commit tunning
  • Warming up.

API e Lucene Search

  • Usando JSON request API.
  • Pesquisas usando JSON Query.
  • Funções de Agregação.
  • Nested Faceting.
  • Codificando com Lucene.
  • Extraindo texto com Apache Tika.
  • Lucene Query Language.
  • Usando cursores.
  • Paginação e ordenação.
  • Querys e Funções Espaciais.
  • Solr in Java

Solr e Java

  • Overview.
  • Apache Maven.
  • Setup do Ambiente de Desenvolvimento.
  • Conectando ao Solr com Java.
  • Indexando documentos com java.
  • Indexando documentos com Java Beans.
  • Pesquisando nos indíces.
  • Deletando documentos com Java.

SolrCloud

  • Arquitetura do SolrCloud.
  • Usando JSON request API.
  • Solr Master-slave X SolrCloud.
  • Trabalhando com Zookeeper.
  • Sharding.

Backup

  • Backup Solr master-Slave.
  • Backup Sulor Cloud.

Monitoramento

  • Monitoramento com uso do JMX.
  • Monitoramento com SPM.
  • Métricas de Monitoramento.

Analise de dados

  • Faceting.
  • Casos de uso.
  • Campos Faceting.
  • Prefixo de Campos Faceting.
  • Range Faceting.
  • Query Faceting.
  • Sort Faceting.
  • Hierarquia do Faceting.
  • Intervalo do Faceting.

 

Carga Horária:

  • 32 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico de desenvolvimento.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Solr e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Solr e cursos Solr. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Apache Druid - Fundamental

O treinamento fundamental em Apache Druid prepara profissionais para o mercado para manipulação de dados em tempo real. Apache Druid é um armazenamento de dados distribuído, de código aberto e orientado a colunas, escrito em Java. Foi projetado para ingerir rapidamente grandes quantidades de dados de eventos e executar consultas OLAP de baixa latência nesses dados. O Druid é comumente usado em aplicativos de inteligência de negócios para analisar grandes volumes de dados históricos e em tempo real. Também é adequado para alimentar painéis analíticos rápidos, interativos e para usuários finais. Empresas como Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal tem usado o Apache Druid.


Conteúdo Programático.

Conceitual Apache Druid.

  • Introdução ao Druid.
  • Ecossistema de Big Data.
  • Introdução a Streaming Data.
  • Introdução a OLAP.
  • Introdução a Hadoop.
  • Apache Software Foundation.
  • Introdução ao Zookeper.
  • Cases de Uso do Druid.
  • Empresas usando Druid.

Instalação do Apache Druid.

  • Instalando o Druid.
  • Configurando o Druid.
  • Importando um data Source.

Características

  • Alta Performance.
  • Real-time.
  • Analytics.
  • Database.
  • Spec.
  • Schema.

Arquitetura do Apache Druid

  • Arquitetura.
  • Middle Manager.
  • Indexing Nodes.
  • Historical Nodes.
  • Broker Nodes.
  • Cordinator Nodes.

Storage Formats

  • Segments Files.
  • Particionamento.
  • JSON, CSV, TSV.
  • ORC, Parquet, Avro.

Funcionalidade

  • Data Rollup.
  • Enconding.
  • Bitmap Indices.
  • Sketch Columns
  • Limitações.
  • Real Time Analytics.

Índices de Dados

  • Sharding.
  • Real Time Indices.
  • Streaming Ingestion.
  • Kafka Indexing Service.
  • Batch Ingestion.
  • Hadoop Index Task.
  • Index Task.
  • Interação com Apache Hive.

Querys e Druid SQL.

  • JSON Querys.
  • SQL Querys.
  • Pytho Querys.
  • R Querys.
  • Ruby Querys.
  • Javascript Querys.
  • Clojure Querys.
  • PHP Querys.
  • REST API Querys.
  • Multiple Query Types.
  • Timeseries,TopN, GroupBy, Select, Segment Metadata.
  • Parser e Planner Apache Cacique.
  • Pvot Analytics UI.

Integração

  • Druid via JDBC.
  • Druid com Hive.
  • Druid e sistemas de BI.
  • Druid Storage for Hive.

Segurança

  • Configurando Acessos.

Cluster Druid

  • Configurando o Cluster.
  • Cluster Distribuído.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Druid e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Druid, cursos Druid. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Log in