Apache Druid

Marcio Junior Vieira

Marcio Junior Vieira

  • 20 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Professor da Pós-Graduação em Big Data e Data Science da UniBrasil.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Trabalhando com Free Software e Open Source desde 2000 com serviços de consultoria e treinamento.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Serpro, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento dbt - Analytics Engineering Workflow

O treinamento dbt (data build tool) é destinado a analista de dados, engenheiros analíticos e profissionais de times de dados que necessitam tratar o dado armazenados em data warehouses, estejam em cloud ou local, antes de demonstra-los nas camadas de data visualization. O dbt realiza todo o seu fluxo de trabalho de engenharia analítica.

A engenharia analítica é o trabalho de transformação de dados que ocorre entre o carregamento de dados em seu warehouse e sua análise. O dbt permite que qualquer pessoa familiarizada com o SQL possa construir esse fluxo de trabalho.

Neste curso de dbt vamos construir sua mentalidade de engenharia analítica e habilidades no dbt para que você possa avançar em seus trabalhos. Conheça nosso conteúdo programático que foi construído para formação analista de dados avançados.

Calendário de turmas.

Somente no modelo corporativo no momento.

Conteúdo Programático

Conceitual dbt.

  • Introdução ao Analise de Dados.
  • Introdução a Data warehouse.
  • Introdução a modelagem dimensional.
  • Histórico da modelagem de dados.
  • Star Schema, Snowflake, Data Vault.
  • ETL x ELT.
  • A função do Analytics Engineer.
  • O Software dbt (data build tool).
  • Software Livre x Open Source.
  • Licenciamento.
  • Histórico do dbt.
  • Empresas usando dbt no Mundo.
  • Empresas usando dbt no Brasil.
  • Comunidade dbt.
  • Versões.
  • Open Source X Enterprise.

Instalando o dbt

  • Requisitos do dbt.
  • Instalação do dbt.
  • Configuração do dbt.
  • Conectando com PostgreSQL.
  • Conectando com Redshift.
  • Conectando com BigQuery.

Fundamentos.

  • o Formato yaml.
  • A Linguagem Python.

Modelos no dbt.

  • dbt, Databases e controle de versão.
  • Conectando no warehouse.
  • Models.
  • Modularity.
  • Modularity e ref functions.
  • Model Naming Conventions.
  • Organização do projeto.

dbt Cloud.

  • dbt Cloud.
  • Carregando dados.
  • dbt Cloud IDE.

Testes em dbt.

  • Tests X Tests dbt.
  • Schema Tests.
  • Data Tests.

Documentação.

  • Importância da documentação.
  • doc blocks.
  • Gerando a documentação.

Sources.

  • O conceito de Sources.
  • Configurando um Source.
  • Documentando o Source.
  • Source freshness.

Deployment.

  • deployiment
  • scheduling dbt.
  • dbt job.

Jinja Primer e Macros.

  • O Conceito do Jinja.
  • Jinja Template Designer.
  • Jinja + SQL.
  • Aplicações Jinja.
  • Macros.
  • DRY Code.

Packages.

  • Packages.
  • Instalando Packages.
  • Packages com Models.

Materializations.

  • Materializations.
  • Tabelas , Views.
  • Ephemeral models.
  • Incremental Models.
  • Snapshots.

Analises e Seeds.

  • Analyses.
  • Seeds.

Carga Horária.

  • 24 Horas.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos.

  • Conhecimento Básico em algum Sistema Operacional (Windows, Linux ou MAC)
  • Conhecimento básico de banco de dado.
  • Conhecimento básico de SQL.
  • Conhecimento básico de Programação (Scripts ou Macros ou funções em bancos de dados).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsets de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares dbt Open Source e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos (hacks) desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos dbt e cursos dbt. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores


Instrutor

Leia mais...

Treinamento Analise de Dados com Apache Hive, Impala e Pig

Sobre o treinamento

O treinamento é voltado para analistas de dados que querem acessar, manipular, transformar e analisar conjuntos de dados complexos no ecossistemas de Big Data como Hadoop usando as ferramentas Apache Hive, Apache Impala e Apache Pig. O curso foca no uso das ferramentas, suas funcionalidades e características, e não na instalação da infraestrutura que é apresentado um overview, todo ambiente será entregue em VMs previamente instalada em GNU-Linux/Debian e versões Apache ou Cloudera do Hadoop HDFS, Spark, Hive, Impala e Pig. Nosso conteúdo programático que foi construído para formação de especialistas em analise de dados com Hive, Impala e Hive, O mesmo mescla conhecimentos conceituais  de analise e ciência de dados, conhecimentos de negócio, assim como integração e programação.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual do Ecossistema Hadoop.

  • O que é Big Data?
  • Os 4 V's principais do Big Data.
  • Os Profissionais Cientista de Dados (Data Scientist) e Engenheiro de Dados (Data Engineer).
  • Data Lake.
  • IoT - Internet das Coisa e Big Data.
  • Principais Ferramentas de Big Data.
  • Licenciamento (Free Software X Open Source).

Introdução ao Hive, Impala e Pig.

  • Apache Hive.
  • Apache Impala.
  • Apache Pig.
  • Schema e Datastore.
  • Arquitetura.
  • Comparando Hive X Impala X Pig.
  • Hive X Presto.
  • Comparação do Hive,Impala e banco de dados tradicionais.
  • Empresas usando Hive, Impala e Pig no Brasil e no Mundo.
  • Casos de uso do Hive, Impala e Pig.
  • Comunidades Hive, Impala e Pig.
  • Versões do Hive, Impala e Pig.

Overview de instalação do Hive, Impala e Pig.

  • Pré-requisitos de instalação.
  • variáveis de ambiente.
  • Principais arquivos de configuração.

Analisando Dados com Apache Hive e Apache Impala.

  • Banco de Dados e Tabelas.
  • Tipos de dados.
  • HCatalog.
  • Hive QL.
  • Hive e Impala Query Language Syntax.
  • Usando o HUE para executar Querys.
  • Beeline e Hive Shell.
  • Impala Shell.
  • Impala Metadata Caching.
  • Operadores.
  • Funções escalares.
  • Funções de Agregação.
  • Union e Join.
  • Trabalhando com NULL.
  • Alias.
  • Filtros, Ordenações e Limites de Resultados.
  • Expressões regulares.
  • Analise de Texto.

Gerenciamento de Dados.

  • Datatorage.
  • Criando tabelas e bancos de dados.
  • Carregando dados.
  • Alterando tabelas e bancos de dados.
  • Criando e usando Views.
  • Armazenando resultados de Consultas.

Formato de Dados.

  • Os principais formatos de dados.
  • Apache Avro.
  • Apache Parquet.
  • Apache ORC.
  • Escolhendo o formato de dados ideal.

Particionamento.

  • Introdução a Particionamento.
  • Alta performance.
  • Particionamento de tabelas.
  • Carregando dados em tabelas particionadas.

Otimização do Apache Hive e Apache Impala.

  • Query Performance.
  • Bucketing.
  • Hive com Spark.
  • Impala Performance.

Extendendo o Hive e o Impala.

  • UDFs.
  • SerDes.

Melhorias e Futuro.

  • Hive Mall.
  • Hive LLAP.
  • TEZ.

Analisando dados com Pig

  • Tipo de Dados.
  • Pig e MapReduce.
  • Componentes.
  • Modos de Execução.
  • PigLatin.
  • Scripts Pig.
  • Executando scripts pig.
  • Integrando Pig e Hive.
  • Integrando Pig e Impala.

Carga Horária.

  • 32 Horas.

Público Alvo.

  • Analistas de Dados.
  • Engenheiros de Dados.
  • DBAs
  • Desenvolvedores.
  • Cientistas de Dados.

Pré-requisitos.

  • Conhecimento básico em algum sistema operacional (Windows, Linux ou MAC)
  • Conhecimento básico de banco de dado e SQL.
  • Conhecimento básico de programação (Scripts SQL).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware e Software.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Hive, Impala e Pig e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • O treinamento apresenta uma empresa fictícia onde será implantado as ferramentas de analise  e todas as fases da implantação para analise usando Hive, Impala e Pig.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Hive, Impala e Pig e cursos Hive, Impala e Pig. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

https://www.ambientelivre.com.br/contato.html

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Grafana - Fundamental

Sobre o treinamento

O treinamento Grafana fundamental é destinado há para quem precisa conhecer as principais funcionalidades do Grafana e implantar uma solução de monitoramento baseado em visualização de dados com dashboards. O curso permite desde a configuração e administração do ambiente Grafana até a criação de funcionalidades de um NOC (Network Operations Center), assim como a personalização e inclusão de novas funcionalidades através de plugins e personalização do Grafana.

Todo o treinamento e ministrado com a versão Open Source do Grafana. Materiais Grafana Open Source em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada. Conheça nosso conteúdo programático que foi construído para formação de especialistas em Grafana, O mesmo mescla conhecimentos conceituais  de visualização de dados, conhecimentos de negócio, assim como necessidades de infraestrutura, integração e programação, necessários para implementação completa do Grafana.

Modalidade do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual - Visão geral do Grafana.

  • A importância do monitoramento.
  • Dashboards.
  • Métricas.
  • Monitoramento de serviços
  • NOC (Network Operations Center).
  • Introdução ao Grafana.
  • Arquitetura e tecnologias utilizadas.
  • Histórico da Grafana.
  • Interfaces do Grafana.
  • Empresas usando Grafana no Brasil e no Mundo.
  • Casos de uso do Grafana.
  • Comunidades Grafana.
  • Licenciamento (Free Software X Open Source).
  • Versões do Grafana.

Instalação e configuração do Grafana.

  • Pré-requisitos de instalação do Grafana.
  • Instalando o Grafana.
  • Configurando o Grafana.
  • Autenticação do Grafana via LDAP/AD.
  • Configurando SMTP.
  • Os arquivos Default.ini, custom.ini e grafana.ini.
  • Instalando plugins.

Coletando dados.

  • Datasources.
  • Time series database.
  • Telegraf.
  • InfluxDB.
  • Graylog.
  • Prometheus.
  • Oracle MySQL e MariaDB.
  • Zabbix.
  • Automatizando as coletas.

Dashboards e painéis de monitoramento.

  • Analisando dados.
  • Adicionando painéis.
  • Editor de painéis.
  • Dashboard folder.
  • Painel gauge.
  • Painel graph.
  • Painel bargauge.
  • Painel table.
  • Painel text.
  • Painel time aeries
  • Painel pizza.
  • Painel heatmap.
  • Painel Stat.
  • Painel clock (plugin).
  • Construindo um dashboard.
  • Compartilhando painéis.
  • Compartilhando dashboards.
  • Expressões.

Administração do Grafana.

  • Grafana CLI.
  • Administração.
  • Segurança e permissionamento.
  • Perfis de usuários (admin,editor e viewer).
  • Organizações.
  • Times.
  • Preferências.

Alertas no Grafana.

  • Configuração de alertas.
  • Testando alertas.
  • Notificação de anomalias.
  • Regras de alertas.

Templates e variáveis e funções.

  • Templates.
  • Sintaxe de variáveis.
  • Gerenciando variáveis
  • Inspecionando variáveis.
  • Adicionando variáveis.
  • Filtrando variáveis com expressões regulares.
  • Funções Grafana.

Assuntos gerais.

  • Overview da API HTTP do Grafana.
  • Como contribuir com o projeto Grafana.

Carga Horária.

  • 16 Horas.

Público Alvo.

  • Analistas ou administradores de sistemas e redes.
  • Desenvolvedores e equipes DevOps.
  • Interessados em monitoramentos de sistemas.

Pré-requisitos.

  • Conhecimentos em utilização de sistemas web.
  • Conhecimento básico em algum sistema operacional (Windows, Linux ou MAC)
  • Conhecimento básico de banco de dado.
  • Conhecimento básico de programação.
  • Conhecimento básico em redes de computadores.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 15 alunos para um melhor desempenho.

Requisitos Recomendados de Hardware e Software.

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: 64 bits (chipsts de x64).
  • CPU: 2 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Material.

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Grafana e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Brindes: Caneta, Pasta e Bloco de Anotações. (Somente em presenciais)

Metodologia.

  • O treinamento apresenta uma empresa fictícia chamada onde será implantado o Grafana e todas as fases da implantação para monitoramentos.
  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Grafana e cursos Grafana. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

https://www.ambientelivre.com.br/contato.html

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Consultoria em GLPI ITSM

O Software GLPI ITSM.

GLPI é uma ferramenta de software ITSM (Gerenciamento de Serviços de TI) que ajuda a planejar e gerenciar mudanças de TI de uma maneira fácil, resolver problemas com eficiência quando surgirem, com metodologias ligadas ao Help Desk e ao Service Desk (ITIL), e também permitir que você obtenha controle sobre o orçamento e as despesas de TI da sua empresa. Ele é uma solução web Open-source completa para gestão de ativos e help desk. O mesmo gerência todos os seus problemas de inventário de ativos/hardwares e software e suporte ao usuário

ITIL - Help Desk e Gestão de Serviços de TI.

ITIL e uma sigla para Information Technology Infrastructure Library, é um conjunto de boas práticas detalhadas para o gerenciamento de serviços de TI que se concentra no alinhamento de serviços de TI com as necessidades dos negócios.
O ITIL descreve processos, procedimentos, tarefas e listas de verificação que não são específicos da organização nem específicos da tecnologia, mas podem ser aplicados por uma organização para estabelecer a integração com a estratégia da organização, entregando valor e mantendo um nível mínimo de competência. Ele permite que a organização estabeleça uma linha de base a partir da qual possa planejar, implementar e medir. Ele é usado para demonstrar conformidade e medir a melhoria.

Vantagens do GLPI.

  • Custo zero de licença de software.
  • Alinhado com a ITIL.
  • Gestão completa de Help Desk.
  • 100% Web.
  • Diversos plugins com funcionalidades acessórias.
  • Multi Empresa.
  • Instalado em cloud, on premise ou híbrido.
  • Acesso controlado por departamento e usuário..

Funcionalidades do GLPI.

  • Gestão de Incidentes e Requisições.
  • Gestão de Problemas.
  • Gestão de Mudanças.
  • Gestão de Níveis de Serviço - SLA.
  • Gestão do Conhecimento.
  • Gestão de Ativos e Licenças (adquiridas, a serem adquiridas, sites, OEM) e datas de expiração.
  • Gestão de Projetos.
  • Gestão de Fornecedores.
  • Gestão de Reservas.
  • Gestão de empréstimos.
  • Relatórios e Estatísticas,
  • Inventário dos computadores, periféricos, rede, impressoras e produtos afins.
  • Indicação do hardware por área geográfica (sala, piso, etc).
  • Gestão das informações comerciais e financeiras (compra, garantia e extensão, amortização).
  • Gestão do estado do hardware.
  • Gestão dos pedidos de intervenção para todos os tipos de hardware do inventário.
  • Interface do usuário final para pedido de intervenção.
  • Gestão das empresas, contratos, documentos ligados aos elementos dos inventários.
  • Gestão de um sistema de base de conhecimentos hierárquicos (FAQ), gestão de um FAQ público.
  • Criação de relatórios sobre o hardware, dos relatórios da rede, dos relatórios sobre as intervenções.
  • Atribuição de chamados para usuários, grupo, ou setor dependendo de sua categoria.
  • Histórico completo de chamados abertos, incluindo quando, o quê e por quem foi alterado.
  • Possibilidade de anexar arquivos em chamados, criar soluções que podem ou não ser vistos pelo requerente do chamado.
  • Follow-up dos chamados via e-mail.
  • Integração com AD ou LDAP.

Ambiente Livre e GLPI.

A Ambiente Livre é pioneira na prestação de serviços, com foco em softwares de código fonte aberto e apta a prestar: Consultoria, Treinamentos em turma aberta ou In Company, Implantação e  Suporte para  as  seguintes  soluções: Big Data, Business Intelligence (BI), Business Analitycs,Data Mining, Enterprise  Content  Management (ECM), Business Process  Management  (BPM), CRM,CMS que geram maior controle e  flexibilidade às empresas. Com mais de 16 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CMS Open Sources com a Plataforma GLPI, e atua em todo o Brasil, América Latina, Europa e África levando conhecimento as empresas sobre plataformas de Help Desk e ITSM, através de capacitações, eventos, cursos de GLPI, workshops e treinamentos de GLPI. Com profissionais com experiência de mais de 8 anos com GLPI, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em GLPI e se consolidamos como a principal referência em formação de tecnologias open source GLPI, atendendo mais de 100 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do GLPI.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de help desk e gestão de ativos com o GLPI.

Consultoria em GLPI.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do GLPI.
  • Consultoria em projetos GLPI.
  • Desenvolvimento e Customizações do GLPI.
  • Consultoria e apoio ao cliente na definição de organização do GLPI.
  • Consultoria na instalação e configuração do Ambiente GLPI com LDAP/AD.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de ambientes de Help Desk para GLPI.
  • Consultoria no desenvolvimento de Relatórios no GLPI.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em GLPI.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em GLPI.

Ambientes onde podemos implementar as soluções GLPI.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Microsoft - Azure.

Tecnologias de Help Desk e ITSM que somos especialistas.

  • GLPI ITMS.
  • OCS Inventory.

Conheça nossos treinamentos no GLPI.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de Help Desk e Service Desk. Entre em contato conosco.

 

Leia mais...

Treinamento Apache Kafka - Fundamental

Sobre o Treinamento

O treinamento fundamental Apache Kafka é voltado para Administradores, desenvolvedores, arquitetos de software e engenheiros de dados que pretendem conhecer o processo de implementação de um streaming de dados distribuído. O treinamento tem diversas atividades práticas simulando uma implantação e integração do Kafka a um ambiente complexo de processamento de dados. Contempla itens voltados a administração, infraestrutura e desenvolvimento. 

Calendário de turmas abertas Apache Kafka

  • Data: - -
  • Local: Online Ao Vivo
  • Inscreva-se
 

Somente turmas fechadas.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • Streaming.
  • Stream X Batch.
  • Eventos.
  • Dados Distribuídos.
  • Real-time Stream.
  • CDC – Change Data Capture.
  • Projeto Apache Kafka.
  • História do Apache Kafka.
  • Apache Software Foundation.
  • Kafka x RabbitMQ X Spark Stream X Flink Stream.
  • Licenciamento (Free Software X Open Source).
  • Motivações para usar Streaming.
  • Empresas usando Kafka no mundo.
  • Empresas usando Kafka no Brasil.
  • Versões do Apache Kafka.
  • Confluent Plataform.
  • Comunidade Apache Kafka no Brasil e no Mundo.
  • Livros, sites, documentação e referências.

Instalação do Kafka

  • Pré-requisitos
  • Instalando Java/JDK.
  • Instalando o rodando o Kafka.
  • Configurações iniciais do Kafka.

Fundamentos do Kafka

  • Producer.
  • Kafka Brokers.
  • Local Storage.
  • Tempo de retenção.
  • Política de retenção.
  • Poll.
  • Kafka Consumers.
  • Mensagens.
  • Tópicos.
  • Particionamentos.
  • Segmentos.
  • Log.

Kafka Data Model.

  • Registro.
  • Headers.
  • Chave.
  • Hash.
  • Valor.
  • Timestamp.
  • Tipos de Dados.
  • Serialização de dados.
  • Avro, JSON.
  • Meta Data (Schema).

Arquitetura do Apache Kafka.

  • Kafka Commit Log.
  • Replicação e Alta Disponibilidade.
  • Particionamento e Consumers Group para Escalabilidade.

Kafka Producers

  • Producers Designer.
  • Desenvolvendo Produces em Java.
  • Configurações.
  • Criando Producers.
  • Enviando Dados.
  • Desenvolvendo Produces em Python.
  • Producers via REST.
  • Producers via linha de Comando.
  • Produce Cache.

Kafka Consumers.

  • Desenvolvendo Comsumers em Java.
  • consumer.properties.
  • Consumer Pull.
  • Consumer Offset.
  • Consumer Group.
  • Leader e Follower.
  • Consumers Rebalances

Integrando o Kafka com suas Aplicações.

  • REST Proxy.
  • Schema Registry.
  • Kafka Connect.
  • KStreams X KTables.
  • Kafka Connect API.
  • Kafka Pipeline.
  • Kafka Stream.
  • Criando Streams.
  • Criando Tabelas.
  • Kafka Stream API.
  • Kafka Streams Data Types.
  • Kafka Streams DSL - Stateless Operations.
  • Kafka Streams DSL - Aggregation.
  • Kafka Streams DSL - Windowed aggregation.
  • Kafka Streams DSL - Join.
  • Kafka Streams DSL- Summary.
  • Filter, Map, Join, Aggregate.
  • Subscribe, Poll, Send, Flush.
  • ksqlDB.
  • Kafka SQL.
  • KSQL interagindo com Apache Kafka.
  • Microserviços.
  • Continuos Querys.
  • Continuos Transformations.
  • Kafka e Pentaho Data Integration.
  • Importação e Exportação de Dados no Kafka.
  • Source e Sinks.
  • Kafka Java Application.
  • Kafka Hadoop Consumer API.

Kafka Cluster

  • Zookeeper.
  • Fator de Replicação.
  • Estratégias de Particionamento.
  • Particionamentos customizados.
  • Liderança de Partições.
  • Load Balancing.
  • Testando o Cluster.
  • CLI Tools.
  • Expandindo seu cluster.
  • Incrementando o fator de Replicação

Tópicos Avançados.

  • Kafka com Docker e Kubernetes.
  • Deploy com arquivo WAR.
  • Scalable Data Pipeline.
  • Log Compactado.
  • Segurança.
  • Autenticação e Autorização.
  • Criptografia.
  • Monitoramento com JMX.

Carga Horária:

  • 32 Horas.

Pré-Requisitos:

  • Conhecimento Básico em comandos Bash Shell/Linux.
  • Conhecimento básico de Java.
  • Conhecimento em Java IDE (Eclipse, IntelliJ ou NetBeans).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB.
  • Espaço em Disco: 20 GB.
  • Processador: 4 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Kafka e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Kafka e cursos Kafka. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento em Docker - Fundamental

O treinamento fundamental em Docker prepara profissionais para o mercado de gerenciamento de containers. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções soluções complexas em ambientes nuvem públicas ou privadas.


Conteúdo Programático.

Conceitual Docker.

  • Introdução a contêineres.
  • Fundamentos do Doker.
  • Ecossistema de contêineres.
  • Containers X Virtual Machines.
  • Cases do uso de Docker.
  • Volumes e Imagens.
  • Versões e Edições do Docker.
  • Licenças do Docker.
  • Namespaces.
  • Open Source X Free Software.
  • Cloud Native Computing Foundation (CNCF).
  • Sistemas Operacionais Suportados.
  • Docker Hub.
  • Empresas usando Docker no Mundo.
  • Empresas usando Docker no Brasil
  • Comunidade Docker.
  • Docker Enterprise Edition.

Instalação do Docker.

  • Instalação do Docker no Linux.
  • Configurando Docker.
  • Baixando container com git pull.
  • Container com deamon.

Docker CLI

  • Conhecendo o CLI do Docker.
  • Principais comando Docker.
  • Preparando ambiente com minikube
  • Docket Build.
  • Acessando container via console.
  • Apagando containers.
  • Comunicação entre containers.

Aplicações com Docker

  • Adicionando uma aplicação em containers.
  • Python e Docker.
  • Aplicativos em vários containers.
  • Exemplo prático de uma aplicação web Python.

Volumes no Docker

  • Criando volumes.
  • Gerenciando volumes.
  • Personalizando volumes.
  • Plugins de volumes.
  • Persistência de volumes.
  • Backups e restore de volumes.
  • Apagando volumes.

Segurança e Rede.

  • Autenticação, controle de autorização.
  • Rede Docker.
  • Configuração de portas.
  • DNS e Links.

Docker Compose e Dockerfile.

  • O estrutura do arquivo YML.
  • usando o docker-compose.
  • Compose CLI.
  • Dockerfile.
  • Execução de aplicativos Docker Compose.
  • Docker Registry e Compose.

Gerenciamento do Docker

  • Docker Registry.
  • Restart policy.
  • Docker Multi cloud.
  • Deploy de aplicações.
  • Limpeza e manutenção.
  • Gerenciando os services.
  • API Rest do Docker.
  • Docker Swarm.
  • Docker em Clouds.
  • Docker Machine.
  • Documentação oficial.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento básico de comandos e servidores Linux.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 4 Cores
  • Sistemas Operacionais: GNU/Linux, Windows, Mac OS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Docker e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Docker e cursos Docker. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Zeebe Workflow Engine for Microservices Orchestration

Sobre o Treinamento

treinamento fundamental Zeebe Workflow Engine for Microservices Orchestration é voltado para usuários e principalmente desenvolvedores e arquitetos de software pretendem conhecer o processo de implementação de orquestração de micro serviços de workflows para grande volume de informações e processos.

Calendário de turmas abertas

Somente turmas fechadas.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Conteúdo Programático

Conceitual

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução ao CMMN 1.1.
  • O Projeto Camunda.
  • Projeto Zeebe.
  • Zeebe x Camunda.
  • Licenciamento (Free Software X Open Source).
  • Zeebe Community License.
  • Empresas usando Camunda e Zeebe no mundo.
  • Empresas usando Camunda e Zeebe no Brasil.
  • Versões do Zeebe.
  • Comunidade Camunda no Brasil e no Mundo.
  • Livros, sites, documentação e referências complementares.

Aplicações de processo

  • Modelagem de processo com BPMN 2.0.
  • Principais Elementos da Notação BPMN.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.
  • Elementos BPMN suportados pelo Zeebe.

Componentes  do Zeebe

Instalação e Configuração

  • Instalação do Ambiente Zeebe.
  • Pré-requisitos.
  • Instalando o Zeebe Broker.
  • Instalando o Zeebe Simple Monitor.
  • Instalando o Zeebe Operate.
  • Instalação do Zeebe Modeler.
  • Instalando o Kibana.

Arquitetura.

  • Arquitetura do Zeebe.
  • Workflow.
  • JobWorker.
  • Partitions.
  • Protocols.
  • Fases do Processamento interno.
  • Exporters.
  • Clustering.

Desenvolvendo processos com Zeebe.

  • Criando o Workflow.
  • Deploy.
  • Iniciando uma instância.
  • Completando tarefas.
  • Workflow Lifecycles.
  • Variáveis.
  • Expressões.
  • BPMN Primer.
  • BPMN Coverage.
  • Data Flow.
  • Tasks.
  • Gateways.
  • Events.
  • Sub Processos.
  • Markers.
  • YAML Workflows.
  • Message Correlation.
  • Incidents.
  • Exporters.

Conhecendo o Zeebe gRPC.

  • Desenvolvendo com Java.
  • ActivateJobs RPC.
  • CancelWorkflowInstance RPC.
  • CompleteJob RPC.
  • CreateWorkflowInstance RPC.
  • CreateWorkflowInstanceWithResult RPC.
  • DeployWorkflow RPC.
  • FailJob RPC.
  • PublishMessage RPC.
  • ResolveIncident RPC.
  • SetVariables RPC.
  • ThrowError RPC.
  • Topologia RPC.
  • UpdateJobRetries RPC.
  • Interação com outras linguagens.

Zeebe Cluster.

  • Zeebe sobre Kubernetes.
  • Cluster.
  • Worker.
  • Gateway.
  • Zeebe operator.
  • Kibana.

Carga Horária:

  • 24 Horas.

Pré-Requisitos:

  • Conhecimento básico de Java
  • Conhecimento em Java IDE (Eclipse, IntelliJ, NetBeans).
  • Conhecimento de Container e Virtual Machines.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8 GB
  • Espaço em Disco: 20 GB
  • Processador: 4 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows, Mac OS.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Zeebe e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Zeebe e cursos Zeebe. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Informações e Valores

[No form id or name provided!]

Instrutor

Leia mais...

Treinamento Apache Drill - Fundamental

O treinamento fundamental em Apache Drill prepara profissionais para o mercado de analise e ciência de dados, usando um mecanismos de exploração de dados de grande volume com uma diversidade de fontes de dados, e uma abstração da complexidade de suas fontes de dados de origem. O Apache Drill fornece consulta SQL colunar, distribuída e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento tais como HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, etc. Sua saída de dados pode ser consumida por conectores JDBC, Linguagens de programação ou ainda ferramentas de Business Intelligence como Pentaho Business Intelligence e outras.


Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Drill para exploração de dados.

Público Alvo

Cientistas de dados, Analistas de Business Intelligence, DBAs, Engenheiro de dados, Desenvolvedores.

Conteúdo Programático.

Conceitual Apache Drill.

  • Introdução ao Apache Drill.
  • Introdução a Ciência de dados.
  • Introdução a Big Data.
  • Apache Drill no Ecossistema de Big Data.
  • A Apache Software Foundation.
  • Cases de Uso do Apache Apache Drill.
  • Empresas usando Apache Apache Drill.
  • Dremel/Google BigQuery X Drill.
  • Open Source X Free Software.

Instalação do Apache Drill.

  • Requisitos para instalação do Apache Drill.
  • Instalando o Apache Drill (Embeeded Mode).
  • Preparando o Cluster.
  • Instalando o Apache Drill (Distributed Mode).
  • Configurando o Apache Drill.
  • Configurando ZooKeeper.
  • Configurando o Storage.

Querys com Apache Drill.

  • Querys com dados delimitados.
  • Drill SQL Query Format.
  • Criando fonte de dados.
  • Definindo o ambiente de trabalho.
  • Acessando colunas em querys.
  • Cabeçalhos de Dados Delimitados.
  • Função Table.
  • Drill Data Types.
  • Trabalhando com formatos de datas.
  • Criando Views.
  • Analisando dados com Apache Drill.
  • Palavras reservadas.

Analise de Dados Complexos

  • Arrays e Maps.
  • Analisando logs com Drill.
  • Query com Nested Data.

Data Sources com Drill.

  • Múltiplos data Sources.
  • Base de dados Relacionais.
  • Query em Hadoop para Drill.
  • Query em HBase para Drill.
  • Streaming de Dados com Apache Drill e Kafka.
  • Query MongoDB com Drill.
  • Drill com Cloud Storage.

Conectando ao Apache Drill.

  • Conectando com JDBC.
  • Conectando com Python.
  • Conectando com R.
  • Conectando com Java.
  • Conectando com Ferramentas de BI.

Engenharia de dados com Apache Drill.

  • Schema-on-Read.
  • SQL Relational Model.
  • Data Source Inference.
  • File Type Inference.
  • Distributed File Scans.
  • JSON Objects.
  • Usando Drill com Parquet.

Funções do Apache Drill.

  • User-Defined Functions.
  • Drill com arquivos do Planilhas Eletrônicas (LibreOffice Calc, MS Excel, etc).
  • Geospatial Functions.
  • Networking Functions.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Drill e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Drill e cursos Apache Drill. Caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

https://www.ambientelivre.com.br/contato.html

Instrutor

Leia mais...

Consultoria em LimeSurvey

O Software LimeSurvey.

O Limesurvey é um software livre desenvolvido com o objetivo de preparar, publicar e coletar respostas de questionários. Uma vez criado um questionário, ele pode ser publicado Online (questão por questão, grupo a grupo de questões ou tudo em uma única página de questionários). O LimeSurvey permite definir como as questões serão mostradas e variar o formato dos questionários por meio de um sistema de padrões ( templates). Fornece ainda uma análise estatística básica sobre os resultados dos questionários.

O LimeSurvey possui a capacidade de gerar Tokens individualizados (chaves), de forma que apenas a pessoa que receber um token poderá acessar o questionário. Tokens são informações enviadas para a lista de pessoas, que você quer convidar para participar de um questionário, de forma a permitir maior controle do questionário disponibilizado pela Internet.

 

Funcionalidades do LimeSurvey.

  • Números ilimitados de questionários, perguntas e participantes;
  • Internacionalização e localização (Multi-linguagem);
  • Controle de acesso por usuário e grupos;
  • 20 formatos de perguntas;
  • Administração de cotas;
  • Editor HTML avançado;
  • Editor de templates para criação do seu próprio layout;
  • Interface de administração amigável e extensível;
  • Funções de importação e exportação (Texto, CSV, PDF, R (software estatístico), MS excel, open Office Calc, Br Office Calc;
  • Integração de imagem e vídeos em questionários;
  • Versão de questionário impresso;
  • Perguntas condicionais (lógicas e ramificadas);
  • Reutilização do conjunto de respostas;
  • Importação e exportação de perguntas;
  • Questionário com data de expiração automática;
  • Avaliação de questionários anônimos e não anônimos;
  • Envio de convites, lembretes e Tokens (chave de acesso) por e-mail;
  • Opção de salvar as respostas e continuar o questionário em outro momento;

Ambiente Livre e LimeSurvey.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções de Pesquisas que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CMS Open Source pata o LimeSurvey, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de Pesquisas e Questionários em LimeSurvey, através de capacitações, eventos, cursos de LimeSurvey, workshops e treinamentos em LimeSurvey. Com profissionais com experiência de mais de 8 anos na plataforma LimeSurvey, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em LimeSurvey e se consolidamos como a principal referência em formação de tecnologias Free Software LimeSurvey para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do LimeSurvey.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de pesquisas em sua empresa com o LimeSurvey.

Consultoria em LimeSurvey.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do LimeSurvey.
  • Consultoria na implantação com LimeSurvey integrado a portais de Internet.
  • Desenvolvimento Questionários / Pesquisas.
  • Desenvolvimento e Customizações do LimeSurvey.
  • Desenvolvimento de Templates com a identidade Visual do Cliente.
  • Consultoria e apoio ao cliente na definição de organização das pesquisas no LimeSurvey.
  • Consultoria na instalação e configuração do Ambiente LimeSurvey.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em LimeSurvey.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em LimeSurvey.

Ambientes onde podemos implementar soluções de pesquisa com LimeSurvey.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Azure.
  • Provedores (Locaweb,Uol Host, etc)

Tecnologias que somos especialistas.

  • PHP
  • MySQL, MariaDB e PostgreSQL.
  • Servers Linux.
  • CSS/HMTL
  • JavaScript/JQuery.

Conheça nossos treinamento no LimeSurvey.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de pesquisas. Entre em contato conosco.

 

Leia mais...

Treinamento Apache Airflow - Fundamental

O treinamento fundamental em Apache Airflow prepara profissionais para o mercado para automatizar seu fluxo de trabalho e orquestrar pipelines de dados. O Apache Airflow é uma plataforma de gerenciamento de fluxo de trabalho de código aberto. Tudo começou no Airbnb em outubro de 2014 como uma solução para gerenciar os fluxos de trabalho cada vez mais complexos da empresa. Empresas como Alibaba, Airbnb, Tesla, Square e Spotify tem usado o Apache Airflow.


Calendário de turmas abertas

  1. Online Ao Vivo
  • Data: - -
  • Local:Online Ao Vivo
  • Contato
next
prev

Objetivo

Ministrar as principais funcionalidades e técnicas do Apache Airflow para a geração transformação de dados.

Público Alvo

Desenvolvedores de ETL, Engenheiro de dados, Analistas de Negócio, Analistas de Business Intelligence, DBAs, desenvolvedores de sistemas, analistas de suporte.

Conteúdo Programático.

Conceitual Apache Airflow.

  • Introdução ao Airflow.
  • Introdução a ETL e orquestração de dados.
  • Introdução a Pipeline de dados.
  • Introdução a Ciência de dados.
  • A Apache Software Foundation.
  • Cases de Uso do Apache Airflow.
  • Empresas usando Apache Airflow.
  • Pentaho Data Integration X Apache Hop X Airflow.
  • DAGs.

Instalação do Apache AirFlow.

  • Requisitos pata instalação.
  • Instalando o Apache Airflow.
  • Configurando o Apache Airflow.

Características

  • Conhecendo o CLI.
  • Conexões.
  • Instância Remota Airflow.
  • Bash/Zsh.
  • Exportando DAGs para Imagens.
  • Data Profiling.
  • Ad Hoc Query.
  • Scheduler.
  • Executor e Workers.
  • Web Server - Flask.
  • DAG Runs.
  • Plugins.
  • Segurança
  • Time zones.
  • Airflow.cfg.
  • Celety.

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python.
  • Básico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Tasks e Operator

  • BashOperator.
  • PythonOperator.
  • EmailOperator.
  • SimpleHttpOperator.
  • PostgresOperator.
  • JdbcOperator.
  • DockerOperator.
  • S3FileTransformOperator.
  • Providers.
  • Astronomer Registry.

Integrações

  • Azure: Microsoft Azure.
  • AWS: Amazon Web Services.
  • Databricks.
  • GCP: Google Cloud Platform.

Métricas

  • Setup.
  • Counters.
  • Gauges.
  • Timers.

Funcionalidades

  • Monitorando o Apache Airflow.
  • Customizando o Apache Airflow.
  • Lendo dados de Big Data.
  • Macros.
  • Python API.
  • REST API.
  • Melhores Práticas.

Airflow na Cloud (AWS)

  • Multi-Cloud.
  • MWAA - Amazon Managed Workflows - AWS
  • Workers auto-scale.
  • Open Airflow UI.
  • Console do Amazon MWAA.
  • Gravando suas DAGs no S3.
  • Executando DAGs.
  • Visualização gráfica das DAGs.
  • Monitoramento usando CloudWatch.

Carga Horária:

  • 24 Horas de duração.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Pré-requisitos:

  • Conhecimento de comandos e servidores Linux.
  • Conhecimento básico em SQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para Online ter uma boa conectividade com a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T.
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Airflow e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.
  • Data: - -
  • Local:Online Ao Vivo
  • Contato
 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Airflow cursos Airflow. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

 

Inscrições, Informações e Valores.

[No form id or name provided!]

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 17 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Log in