Apache Druid

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache Spark com Python para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark com Python para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Python e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Python

  • O que é Python?
  • Apresentando Python.
  • Instalando Python.
  • Escrevendo scripts Python
  • Basico em Python.
  • Tipos Básicos Python.
  • Definindo Funções.
  • IDE para Python.

Programando em Python e Jython

  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If, While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Programação Funcional em Python

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Python e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Spark com SQL e Hadoop Hive

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

Powered by BreezingForms


Instrutor

Leia mais...

Treinamento Administração em Apache Cassandra

O treinamento Administração do Apache Cassandra prepara profissionais para o mercado de trabalho com um banco de dados distribuído altamente escalável. Seu conteúdo programático foi desenvolvido para que profissionais possam implantar e administrar soluções de Big Data e NoSQL em suas corporações. O mesmo abrange, conceitos, conhecimentos de uso dos softwares, configuração, tunning todas realizadas com atividades práticas e exemplos reais de utilização.


Conteúdo Programático.

Conceitual Apache Cassandra.

  • Visão geral sobre Cassandra.
  • Características Gerais do Cassandra.
  • Ecossistema de Big Data e Cassandra.
  • Cassandra X Outros NoSQL.
  • Distribuições Cassandra.
  • DataStax X Apache Cassandra X ScyllaDB.
  • Cases do uso de Cassandra.
  • Escalabilidade Linear.
  • Alta disponibilidade e Alto desempenho.
  • CAP Theorem.
  • Arquitetura.
  • Tolerância a Falhas.

Planejamento de Hardware.

  • Seleção de hardware.
  • Virtual machine X Hardware Físico.
  • Memória.
  • Processadores.
  • Discos e Storage.
  • Storage X Disco Físico.
  • Limites e Recomendações.

Instalação e Configuração do Apache Cassandra

  • Distribuições Cassandra.
  • Requisitos de Instalação.
  • Adquirindo os pacotes de Instalação.
  • Modo de Instalação.
  • Configuração um Cluster Cassandra.
  • Iniciando o cluster com seus nós.
  • Diretórios de dados.
  • Configurando os Nós e Clusters do Cassandra Utilizando o CCM.

Administração do Cluster Cassandra

  • Executando e Parando a Instância Cassandra
  • Administrado o cluster com o NodeTool.
  • Analisando saúde do Cluster.
  • Analisando performance com NodeTool
  • Comunicação dos Nodes Cassandra.
  • Gravando e lendo dados no mecanismo de armazenamento.
  • Escolhendo e implementando estratégias de compactação.
  • Compactação Cassandra.
  • Size Tiered Compaction.
  • Time Window Compaction.
  • Práticas recomendadas do Cassandra (compaction, garbage collection)
  • Criando uma instância do Cassandra de teste com pouco espaço na memória.
  • Reparo Anti-entropy node
  • Reparo sequencial vs paralelo.
  • Nodesync.

Manutenção do Cluster Cassandra

  • Adicionando e removendo novos nodes.
  • Substituindo um node.

Solução de problemas (Troubleshooting)

  • Ferramentas e dicas para solução de problemas (Troubleshooting).
  • Diretórios de Logs.
  • Analise de Logs.
  • JVM Garbage e Collection Logging.

Administração de tabelas clusterizadas.

  • Quorum e consistency levels.
  • Sstables, memtables, commit log.
  • Replicação.
  • Sstablesplit

Backups e Restore.

  • Arquitetura para backups.
  • Planejamento de backups.
  • Ferramentas de apoio para Backup.
  • Restore.
  • Snapshots.
  • Sstabledump.
  • Sstableloader.

Tunning.

  • Balanceamento de carga.
  • Testes de Stress no Cluster.
  • Consistency Tuning.
  • Benchmarks.
  • Configurações de JVM.
  • Kernel Tunning.

Processamento distribuído.

Assuntos Complementares

  • Certificações em Apache Cassandra.

 

Carga Horária:

  • 24 Horas.
  • 100% Presencial

Pré-Requisitos:

  • Conhecimento de comandos e servidores Linux,
  • Conhecimento básico de programação
  • Conhecimento Básico em modelo de dados, Banco de dados e SQL e NoSQL.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 20GB
  • Processador: 64 bits(chipsts de x64)
  • CPU: 4 núcleos.
  • Sistemas Operacionais: GNU/Linux, Windows ou  MacOS.
  • VirtualBox.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Cassandra e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Cassandra e cursos Cassandra. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

 

Fotos dos treinamentos Apache Cassandra

Instrutor

Leia mais...

Treinamento Apache Zeppelin

Sobre o Treinamento / Curso

O treinamento fundamental em Apache Zeppelin é voltado para Data Scientists (Cientistas de dados) que pretendem conhecer o potencial que uma ferramenta de Notebook nas atividades de um cientista de dados, proporcionando conhecimentos para uso no dia dia de trabalho com dados em ambientes de Big Data, Machine Learning, Inteligência Artificial e Data Science na exploração e analise dos dados.

Nosso Expertise com o Apache Zeppelin.

Profissionais com 4 anos de experiência com Zeppelin.

5 Alunos formados em treinamentos Zeppelin.

Modalidades de Treinamento e Valores

  • EAD - Cadastre-se na Plataforma de EAD, pague com cartão de crédito via Paypal e tenha acesso instantâneo a todos vídeo aulas, slides, exercícios e softwares (pode assistir em seu computador ou celular). De R$ 270,00  Promocionalmente em lançamento por R$ 90,00.
    Gostaria de pagar de outra forma (Faturado, Boleto, Nota de Empenho, etc)? Solicite contato comercial.
  • Remoto ao Vivo - Aulas por salas virtuais ao vivo com nossos instrutores(Hangout, Skype, etc). Solicite proposta comercial.
  • Presencial - Nosso instrutor vai até você e ministra junto a sua equipe. Solicite proposta comercial.

Conteúdo Programático

Introdução.

  • Introdução ao Apache Zeppelin.
  • O que é um interpreter.
  • Integração com Apache Spark.
  • Visualização de dados.
  • Pivot.
  • Formulários dinâmicos.
  • Notes e parágrafos.

Interpreters.

  • Markdown Interpreter.
  • JDBC Interpreter.
  • Hive Interpreter.
  • Shell Interpreter.
  • Spark Interpreter.

Instalando o Ambiente.

  • Adquirindo VM da Hortonworks - HDP.
  • Instalando a VM da Hortonworks - HDP.
  • Instalando uma VM Hortonworks Sandbox na Cloud Microsoft Azure.

Criando Notes com Apache Hive.

  • Criando Notes com o interpreter JDBC/Hive.
  • Utilizando SQL Like do Hive.
  • Criando gráficos.
  • Configurando gráficos.
  • Importando e exportando Notes.

Criando Notes com Shell Script.

  • Criando Notes com o interpreter Shell.
  • Manipulando e movendo arquivos com shell.
  • Manipulando o HDFS com interpreter shell.

Criando Notes com Apache Spark e Angular.

  • Criando Notes com o interpreter Spark.
  • Utilizando o interpreter Spark 2.
  • Usando o interpreter Angular para apoio de documentação.
  • Manipulando Dataframes com métodos Spark.
  • Visualizando dados com o interpreter Spark SQL.

Configurando Interpreters.

  • Configurando um novo Interpreter JDBC (PostgreSQL).
  • Utilizando o novo Interpreter para acessar o PostgreSQL.

Autenticação e Segurança.

  • Controlando acessos com Apache Shiro.

Carga Horária:

  • 3 Horas.

Pré-Requisitos:

  • Noções de Big Data ou Data Science ou Analytics.
  • Conhecimento básico em programação.
  • Conhecimento básico de manipulação de dados (SQL, DML, DDL)
  • Conhecimento básicos de redes. 

Requisitos:

Para aulas EAD ou transmissão ao Vivo.

  • Todos os participantes devem ter um computador para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.

Para aulas presenciais

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 16GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T ou Superior.
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Obs. Pode ser utilizado a VM Hortonworks Data Platform (HDP) Sandbox da Microsoft Azure (https://azuremarketplace.microsoft.com/en-us/marketplace/apps/hortonworks.hortonworks-sandbox) que tem todos os requisitos, porém o tempo de uso e calculado pela Azure e cobrado de seus créditos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Zeppelin e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Vídeo aulas desenvolvidas pela equipe Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache Zeppelin e cursos Apache Zeppelin. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Consultoria em Pentaho Business Intelligence

O Software Pentaho Community Edition.

O Pentaho BI Open Source Business Intelligence oferece poderosas ferramentas de análise de informações, monitoramento de indicadores e data mining para que as organizações revolucionem o uso da informação gerencial, atingindo ganhos significativos de eficiência e eficácia. O software é uma plataforma completa de BI desenvolvida, distribuída e implantada como open source. Apresenta grande flexibilidade e independência de plataformas, alta  confiabilidade  e segurança a um custo mínimo de implantação e manutenção.

BI - Business Intelligence

Conjunto de conceitos, métodos e recursos tecnológicos que habilitam a obtenção e distribuição de informações geradas a partir de dados. Operacionais e históricos visando gerar resultados para tomada de decisão. O termo Business Intelligence (BI), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios. O pentaho Atende a todos os conceitos e funcionalidades de um software de Business Intelligence.

Vantagens do Pentaho.

  • Custo zero de licença de software.
  • Consolidação de informações da empresa.
  • Portal de análise 100% Web.
  • Extrair e integrar dados de múltiplas fontes.
  • Criação de painéis de  indicadores.
  • Ampliação da compreensão das tendências dos negócios.
  • Planejamento corporativo mais amplo.
  • Integra-se a qualquer software (ERP, CRM, BPM).
  • Instalado em cloud, nuvem ou servidor local.
  • Acesso controlado por departamento e usuário.
  • Atualização automática das informações.

Funcionalidades do Pentaho.

  • ETL com mais de 350 componentes prontos.        
  • Análise de Dados com cubos dinâmicos.
  • Suporte a mais de 350 tipos de gráficos.
  • Dashboards Interativos.
  • Relatórios gerenciais e operacionais.
  • Estatísticas através de mineração de dados.
  • Análise dos Dados do seu Big Data/Data Lake.
  • Acessível via Web e mobile responsivo.

Ambiente Livre e Pentaho Community Edition.

A Ambiente Livre é pioneira na prestação de serviços, com foco em softwares de código fonte aberto e apta a prestar: Consultoria, Treinamentos em turma aberta ou In Company, Implantação e  Suporte para  as  seguintes  soluções: Big Data, Business Intelligence (BI), Business Analitycs,Data Mining, Enterprise  Content  Management  (ECM), Business Process  Management  (BPM), CRM,CMS que geram maior controle e  flexibilidade às empresas. Com mais de 13 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios,  pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em Business Intelligence Open Source com a Plataforma Pentaho, e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de Business Intelligence e Analytics Pentaho, através de capacitações, eventos, cursos de pentaho, workshops e treinamentos de Pentaho. Com profissionais com experiência de mais de 10 anos na plataforma Pentaho, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em Pentaho e se consolidamos como a principal referência em formação de tecnologias open source Pentaho para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso da plataforma Pentaho.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de dados em sua empresa com o Pentaho.

Consultoria em Pentaho.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Plataforma Pentaho.
  • Consultoria na implantação e construção de Data warehouses e Data Lakes.
  • Consultoria em projetos Pentaho.
  • Desenvolvimento e Customizações do Pentaho.
  • Consultoria e apoio ao cliente na definição de organização dos dados no Pentaho.
  • Consultoria na instalação e configuração do Ambiente Pentaho com LDAP/AD.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na engenharia de como os dados devem ser armazenados.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de Dashboards.
  • Consultoria no desenvolvimento de Cubos e Analises.
  • Consultoria no desenvolvimento de ETLs, Pipeline de dados e Integrações.
  • Consultoria no desenvolvimento de Relatórios e Metadados.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em Pentaho.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em Pentaho Community Edition.
  • Suporte em Data Integration Community Edition.

Ambientes onde podemos implementar as soluções de Business Intelligence.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Microsoft - Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma Pentaho.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de dados. Entre em contato conosco.

 

Leia mais...

Treinamento Flowable BPM Open Source - Fundamental

Sobre o Treinamento

O treinamento fundamental em Flowable BPM é voltado para usuários e desenvolvedores que pretendem conhecer o processo de implementação de workflows no software Flowable e integrar a suas aplicações.

O objetivo deste treinamento de 3 dias é dar-lhe informações detalhadas sobre a automação de processos com o Flowable BPM e Java, no final desse treinamento você irá conhecer o básico da BPMN, compreender os conceitos técnicos essenciais do mecanismo BPM do Flowable e ser capaz de implementar aplicativos de processo por conta própria e saber como testá-los
.

 

Calendário de turmas abertas

Somente in Company.

Conteúdo Programático

Introdução

  • O que é um fluxo de trabalho (Workflow).
  • Introdução ao BPMN 2.0 (Business Process Model and Notation).
  • Introdução ao DMN 1.1.
  • Introdução ao CMMN 1.1.
  • Principais Elementos da Notação BPMN.
  • O Projeto Flowable.
  • Activiti x Camunda x Bonita X Flowable.
  • Licenciamento (Free Software X Open Source)

Instalação e Configuração

  • Instalando o Flowable.
  • Criando usuários e grupos.

BPM e Automação de processos

  • Modelagem de processo com BPMN 2.0.
  • Gestão de Decisão com DMN 1.1.
  • Gerenciamento de Casos com CMMN 1.1.
  • Automação do processo.
  • Cadeia de ferramentas e metodologia.
  • Padrões e melhores práticas.

Flowable Core

  • Arquitetura do Flowable.
  • API (Java, REST, SOAP).
  • Content, Form, App, IDM
  • Dados de processo (Variáveis, XML, JSON) e Idioma de Expressão.
  • Gestão de tarefas humanas.
  • Modelo de programação usando Spring.
  • Manipulação de erros.
  • Cenários de implantação.
  • Versão do processo.
  • Orquestra de serviço.

Designing Flowable Forms

  • Criando Formulários.
  • Flowable Frontend Expression Language.
  • Fonte de dados de Formulários.

Aplicações de processo

  • Arquitetura de Aplicações de Processo
  • Interfaces de usuário / formulários de tarefa
  • Cenários de implantação
  • Acessando Serviços (Java, REST, SOAP, EMail)

Customização do Frontend.

  • Criando Temas e Estilos.
  • FlowApps e Pages usando JavaScript e React.
  • Flowable Design.

Administração.

  • Monitoramento de instâncias de processo.
  • Analizando os Dados do Flowable.
  • Interagindo com processos e cases executados.

Carga Horária:

  • 24 Horas.
  • Presencial e Ao Vivo Remotamente

Pré-Requisitos:

  • Conhecimento básico de Java
  • Conhecimento em Java IDE (Eclipse, IntelliJ, NetBeans).

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 10GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS. (64 Bits)

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Flowable e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Flowable e cursos Flowable. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Consultoria em SuiteCRM

O Software SuiteCRM - Open Source CRM.

O SuiteCRM é um aplicativo de gerenciamento de relacionamento com o cliente (CRM) de código aberto.  Ele é funcionalmente equivalente a grandes conjuntos de produtos como Salesforce, Oracle, SAP e Microsoft Dynamics
está pronto para empresas e está deslocando fornecedores tradicionais em grandes contas. O SuiteCRM está disponível para download, modificação e distribuição totalmente livre. É e sempre será um produto completamente aberto.

CRM - Gestão de Relacionamento com Cliente.

A plataforma SuiteCRM Customer Relationship Management é uma plataforma de CRM aberta e poderosa que é fácil de entender,  personalizar e integrar com outras aplicações e processos existentes. A plataforma fornece
acesso móvel responsivo, proporciona ao usuário uma experiência de colaboração em vendas e prospecção. É a plataforma CRM Open Source preferida de milhares de empresas no mundo.

Funcionalidades do SuiteCRM.

  • Gestão de Campanhas de Marketing.
  • ROI (Retorno do Investimento em Campanhas).
  • Administração de Leads.
  • Gestão de Oportunidades.
  • Funil de Vendas.
  • 100% Web e Mobile.
  • Controle de acesso por usuário,grupos e equipes.
  • Rastreabilidade total das Informações e alterações.
  • Disparo de e-mails personalizados e segmentados.
  • Gestão de atividades e colaboração (e-mails, tarefas, agendas, históricos).

Funcionalidades de Integração.

  • Integração com os Principais ERPs do Mercado: SAP, Sapiens, Totvs, Benner, Sage, Oracle, etc.
  • Pesquisas de Mercado.
  • Gestão de Qualidade de Serviços (SLA).
  • Pesquisas de Satisfação de Cliente.
  • Clientes que se cadastram no Site são incluídos no CRM.
  • Workflow de Tarefas Gerenciável.
  • Integração com Google Maps e Google Calendar.

Ambiente Livre e SuiteCRM.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções de CRM que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CRM e CMS Open Source com a Plataforma SuiteCRM, LiferayLimeSurvey e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de CRM e CMS open Source, através de capacitações, eventos, cursos de SuiteCRM, workshops e treinamentos de SuiteCRM. Com profissionais com experiência de mais de 8 anos na plataforma SuiteCRM, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em SuiteCRM e se consolidamos como a principal referência em formação de tecnologias open source SuiteCRM para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do CRM SuiteCRM.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos em sua empresa com o SuiteCRM.

Consultoria em SuiteCRM.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do SuiteCRM.
  • Consultoria na implantação com SuiteRM Integrado ao Alfresco ECM.
  • Consultoria em projetos SuiteCRM.
  • Integração de ERPs com SuiteCRM.
  • Desenvolvimento e Customizações do SuiteCRM.
  • Criação de novos módulos SuiteCRM.
  • Consultoria e apoio ao cliente na definição de organização dos dados no SuiteCRM.
  • Consultoria na instalação e configuração do Ambiente SuiteCRM.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.
  • Consultoria na implementação de workflows, relatórios e dashlets.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em SuiteCRM.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em SuiteCRM.

Ambientes onde podemos implementar as soluções de CRM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon AWS.
  • Google Cloud.
  • Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma SuiteCRM.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

 

Leia mais...

Treinamento Deep Learning com TensorFlow

Sobre o Treinamento

O treinamento TensorFlow passa uma visão conceitual e prática de como trabalhar com o TensorFlow para Deep Learning com imagens e dados de grandes bases. Será apresentado como o Deep Learning pode ajudar na melhoria dos negócios nas corporações a partir de diversos algoritmos disponíveis neste software de código aberto desenvolvido pela Google. Além de demonstrar como usar e integrar bibliotecas com tensorFlow.

Objetivo

Ministrar as principais características do TensorFlow junto a uma visão geral dos algoritmos, e sua aplicação na solução de problemas de Deep Learning em ambientes de Big Data.

Público alvo do treinamento

Cientistas de Dados, Engenheiro de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores.


Turmas Somente inCompany

 

Conteúdo Programático

Introdução a Python 2h

  • A Linguagem Python.
  • Porque Python e TensorFlow?
  • Sintaxe Fundamental do Python.
  • Constantes e Variáveis.
  • Adição de vetores e matrizes.
  • Multiplicação de matrizes.
  • Produto escalar.
  • Placeholders.
  • Gerenciamento de pacotes com pip.
  • Jupyter Notebook.

Conceitual Deep Learning 6h

  • Introdução a Machine Learning.
  • Introdução a Deep Learning.
  • Deep Learning X Machine Learning.
  • Introdução Convolutional Neural Network (CNN).
  • Introdução a Redes Neurais (NN).
  • Introdução a Redes Neurais Recorrentes (RNN).
  • CPU X GPU X TPU.

Introdução a TensorFlow 2h

  • O que é o TensorFlow.
  • Ecossistema TensorFlow.
  • Quem usa o TensorFlow.
  • Cases do uso TensorFlow.
  • TensorFlow X IBM Watson.
  • Histórico do TensorFlow.
  • Empresas usando TensorFlow no Mundo.
  • Empresas usando TensorFlow no Brasil.
  • Free Software(GPL) X Open Source(BSD e Apache).

Introdução a Keras 1h

  • A Biblioteca Keras.
  • Keras e Python.

Instalação o Ambiente. 1h

  • Instalando o Python.
  • Configurando variáveis de ambiente.
  • Instalando o Bibliotecas Python (pandas, scikit-learn, keras).
  • Instalando o TensorFlow.
  • Instalando o Jupyter Notebook.
  • Configurando execução para GPU.

Classificação de imagens com Tensorflow 8h

  • Comparação Python e sintaxe Tensorflow.
  • Datasets de imagens.
  • Construindo um Modelo.
  • Implementando um classificador.
  • Treinando um Modelo.
  • Camada 0.
  • Camadas Ocultas.
  • Executando modelo na GPU.
  • Debugando o Modelo.
  • Tratamento do dados (Escala de cinza e normalização).
  • Acurácia do Modelo.
  • Under e overfitting.
  • Salvar modelo.

Colab 3h

  • Usando o Colab.
  • Colab e TensorFlow.
  • Limitações.
  • Custos para expansão.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento básico de programação.
  • Conhecimento básico Sistemas Operacionais.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM: 8 GB ideal 16GB.
  • Espaço em Disco: 50GB.
  • Processador: Quad Core.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares TensorFlow, Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento MongoDB Document-Oriented Database

Sobre o Treinamento

O treinamento em MongoDB passa uma visão conceitual e prática de como trabalhar com o banco de dados baseado a documentos de forma unitária e clusterizada..

Objetivo

Ministrar as principais características do MongoDB junto a uma visão geral das funcionalidades.

Público alvo do treinamento

Engenheiros de dados, Cientistas de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data

  • Introdução ao Big Data.
  • 4Vs do Big Data.
  • Big Data X BI.
  • DataLake
  • Data Scientist X Data Engineer.
  • Free Software X Open Source.

Introdução a MongoDB, NoSQL e JSON

  • Introdução a NoSQL.
  • NoSQL X SQL.
  • Características NoSQL.
  • Arquitetura do MongoDB.
  • Características do MongoDB.
  • Versões do MongoDB.
  • Licença do MongoDB.
  • Introdução ao JSON e BSON.
  • Schemaless.
  • JSON X XML.
  • CAP Theorem.
  • Histórico do MongoDB.
  • Quem usa MongoDB.

Instalação do MongoDB

  • Adquirindo arquivos de instalação.
  • Sistemas Operacionais suportados.
  • Instalando o MongoDB.
  • Conhecendo o mongod.conf.

Características do MongoDB

  • Aplicações com MongoDB
  • MongoDB Drivers.
  • Mongo Shell.
  • Nomenclaturas.
  • Tipos de dados.
  • MongoDB DML
  • Databases
  • Índices
  • Secondary Indexes.
  • Operadores
  • Geolocalização.
  • Servidor API/REST.
  • Nested Document.
  • Aggregation Framework. 

Modelagem de dados no MongoDB

  • Schema.
  • MongoDB Desnormalizando.

Manipulando MongoDB com Python

  • Introdução ao Python.
  • Syntax Fundamental do Python.
  • Criando um schema.
  • PyMongo.
  • MongoClient.
  • Bottle: Python Web Framework.
  • Manipulando documentos com Javascript no MongoShell
  • Servidor Flask.
  • Web Server com Python com MongoDB.
  • Removendo Documentos.
  • CRUD (INSERT, SELECT,UPDATE e DELETE).
  • Consultando Documentos  com filtros (SELECT, WHERE).
  • JSON Array e subDocument.
  • MVC com template bottle.

Segurança

  • Autorização e Autenticação.
  • Autenticação integrada.
  • Usuários e Roles.

Importação e Exportação

  • MongoImport
  • MongoExport

Monitoramento do MongoDB

  • Mongotop
  • Mongostat

Cluster e Replicação

  • Deployment & Scaling.
  • Replicação.
  • Clusterização.
  • Replica Sets.
  • Sharding.
  • Eventual Consistency.
  • Strong Consistency.
  • Multi Data Center

Backup e Restore

  • Backup do MongoDB
  • Restore do MongoDB.
  • Backup Node
  • Disaster Recovery.

MongoDB e Big Data

  • Analyzing Geospatial Data.
  • Hadoop e MongoDB.
  • Cenário Batch Aggregation.
  • Cenário: Data Warehouse.
  • Cenário ETL Data.
  • Arquiteta de Big Data.
  • Cases.
  • Mercado de Trabalho.
  • Certificações.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico em Programação.
  • Conhecimento Básico em Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • Deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox e 64Bits.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares MongoDB e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações (somente em treinamentos presenciais).

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Instrutor

Leia mais...

Treinamento Liferay - Fundamental

Sobre o Treinamento

  O treinamento fundamental em Liferay prepara profissionais para o mercado de trabalho com uma Plataforma de Gerenciamento de Conteúdo empresarial  (Content Management Plataform). Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções Portal em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.

Público alvo do treinamento.

Gestores de Conteúdo Web, Gestores de TI, Programadores, Analistas de Sistemas e Engenheiros da Computação.


Turmas Somente inCompany

Objetivo

Ministrar as principais características do Liferay Portal. O funcionamento e instalação do ambiente Liferay, o gerenciamento do Portal e as customizações possíveis para criação de sites e intranets corporativas.

Conteúdo Programático

Conceitual Liferay

  • Introdução a Liferay.
  • Histórico do Liferay.
  • Liferay para Intranets.
  • Introdução a Portlets.
  • Liferay Plugins.
  • Arquitetura Liferay Portal.
  • Licenciamento (Free Software X Open Source)
  • Empresas usando Liferay no mundo.
  • Empresas usando Liferay no Brasil.

Características do Liferay

  • Sites e Organizações.
  • Sistema de permissões.
  • Páginas de Conteúdo.
  • Portlets.
  • Documentos e Midias.
  • Liferay para colaboração.
  • Ferramentas de Colaboração.
  • Exibição de Conteúdo.
  • Blog, Wiki, Message Board, Calendário, Chat e Email.

Instalação Liferay

  • Pré-requisitos de instalação.
  • Adquirindo os arquivos de instalação.
  • Instalando o Liferay
  • Liferay em Docker e Kubernetes.

Administrando o Liferay

  • Gerenciando usuários através de organizações e grupos de usuários.
  • Administrando configuração Portal através do Painel de Controle.
  • Aplicando permissões para os usuários.
  • Criação e exibição de conteúdo básico através de Sites.
  • Gerenciando páginas em sites.
  • Compartilhamento de recursos através da hierarquia do site.
  • Como criar e usar o site e Modelos de Páginas.
  • Diferente tipos de Conteúdo disponíveis no Liferay.
  • Gerenciando seus documentos e mídia.
  • Usando Fluxo de Trabalho no Liferay.

Overview de Customização do Liferay

  • Relacionando o conteúdo através do Asset Framework.
  • Estendendo informações padrão com campos personalizados.
  • Como usar o Dynamic Data List para recuperar informações.
  • Web Services.
  • Liferay Portlet Development (JSP, Struts, Spring, IPC, JSF).
  • Overview de Desenvolvimento de Temas.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico de Linux.
  • Conhecimento Básico em HTML e CSS.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Liferaya e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Mahout

Sobre o Treinamento

O treinamento Apache Mahout passa uma visão conceitual e prática de como trabalhar com o Mahout para mineração de dados e aprendizado de maquina em grandes clusters de Big Data. Será apresentado como o Data Mining pode ajudar na melhoria dos negócios nas corporações apartir de diversos algoritmos disponíveis neste software de cógido aberto.

Objetivo

Ministrar as principais características do Apache Mahout junto a uma visão geral dos algoritmos, e sua aplicação na solução de problemas de Data Mining em ambientes de Big Data.

Público alvo do treinamento

Cientistas de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Mahout

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Apache Spark MLib X Apache Mahout.
  • Histórico do Apache Mahout.
  • Casos de uso de Mahout.
  • Empresas usando Mahout no Mundo.

Introdução a Mahout

  • Arquitetura do Mahout.
  • Características do Mahout.
  • Versões do Mahout.

Instalação o Apache Mahout

  • Instalando o Mahout.
  • Mahout no Cluster Hadoop.
  • Configurações do Apache Mahout.

Algoritmos no Mahout

  • Algoritmos Mahout.
  • Recomendações no Mahout (Recomender System)
  • Representando Dados de Recomendação.
  • Classificação com Mahout (Naive Bayes).
  • Clusterização com Mahout (K-Means).

Desenvolvendo com Apache Mahout.

  • Samsara Scala-DSL
  • Mahout com Scala.
  • Mahout MapReduce.
  • Mahout com Apache Spark.
  • Mahout com Apache Flink.
  • Mahout com Apache Zeppelin.

Integração com outras Ferramentas.

  • Mahout e Hive.
  • Mahout e HDFS.
  • Mahout e Apache Pig.

Tunning.

  • JVM Tunning.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico em Programação Java ou alguma linguagem com Orientação Objeto.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • Deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox e 64Bits.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Mahout e Hadoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Log in