Apache HTTP

Consultoria em SuiteCRM

O Software SuiteCRM - Open Source CRM.

O SuiteCRM é um aplicativo de gerenciamento de relacionamento com o cliente (CRM) de código aberto.  Ele é funcionalmente equivalente a grandes conjuntos de produtos como Salesforce, Oracle, SAP e Microsoft Dynamics
está pronto para empresas e está deslocando fornecedores tradicionais em grandes contas. O SuiteCRM está disponível para download, modificação e distribuição totalmente livre. É e sempre será um produto completamente aberto.

CRM - Gestão de Relacionamento com Cliente.

A plataforma SuiteCRM Customer Relationship Management é uma plataforma de CRM aberta e poderosa que é fácil de entender,  personalizar e integrar com outras aplicações e processos existentes. A plataforma fornece
acesso móvel responsivo, proporciona ao usuário uma experiência de colaboração em vendas e prospecção. É a plataforma CRM Open Source preferida de milhares de empresas no mundo.

Funcionalidades do SuiteCRM.

  • Gestão de Campanhas de Marketing.
  • ROI (Retorno do Investimento em Campanhas).
  • Administração de Leads.
  • Gestão de Oportunidades.
  • Funil de Vendas.
  • 100% Web e Mobile.
  • Controle de acesso por usuário,grupos e equipes.
  • Rastreabilidade total das Informações e alterações.
  • Disparo de e-mails personalizados e segmentados.
  • Gestão de atividades e colaboração (e-mails, tarefas, agendas, históricos).

Funcionalidades de Integração.

  • Integração com os Principais ERPs do Mercado: SAP, Sapiens, Totvs, Benner, Sage, Oracle, etc.
  • Pesquisas de Mercado.
  • Gestão de Qualidade de Serviços (SLA).
  • Pesquisas de Satisfação de Cliente.
  • Clientes que se cadastram no Site são incluídos no CRM.
  • Workflow de Tarefas Gerenciável.
  • Integração com Google Maps e Google Calendar.

Ambiente Livre e SuiteCRM.

A Ambiente Livre é pioneira na oferta de consultoria em softwares de código-fonte aberto, oferece soluções de CRM que geram maior controle e flexibilidade as empresas. Com mais de 10 anos de excelência em capacitações, consultorias e suporte em um ecossistema voltado a negócios, pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação  inteligente necessária para o seu sucesso.

A Ambiente Livre tem uma verticalização especialista em CRM e CMS Open Source com a Plataforma SuiteCRM, LiferayLimeSurvey e atua em todo o Brasil levando conhecimento as empresas sobre plataformas de CRM e CMS open Source, através de capacitações, eventos, cursos de SuiteCRM, workshops e treinamentos de SuiteCRM. Com profissionais com experiência de mais de 8 anos na plataforma SuiteCRM, realizando implementações, projetos, desenvolvimentos, consultoria e principalmente transferência de tecnologia através de seus treinamentos em SuiteCRM e se consolidamos como a principal referência em formação de tecnologias open source SuiteCRM para gestão no mercado nacional, atendendo mais de 300 empresas no Brasil, Paraguai, Argentina e Angola nos últimos anos com uso do CRM SuiteCRM.

A Ambiente Livre tem todo know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos em sua empresa com o SuiteCRM.

Consultoria em SuiteCRM.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do SuiteCRM.
  • Consultoria na implantação com SuiteRM Integrado ao Alfresco ECM.
  • Consultoria em projetos SuiteCRM.
  • Integração de ERPs com SuiteCRM.
  • Desenvolvimento e Customizações do SuiteCRM.
  • Criação de novos módulos SuiteCRM.
  • Consultoria e apoio ao cliente na definição de organização dos dados no SuiteCRM.
  • Consultoria na instalação e configuração do Ambiente SuiteCRM.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração.
  • Consultoria na implementação de workflows, relatórios e dashlets.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em SuiteCRM.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em SuiteCRM.

Ambientes onde podemos implementar as soluções de CRM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon AWS.
  • Google Cloud.
  • Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma SuiteCRM.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

 

Leia mais...

Treinamento Deep Learning com TensorFlow

Sobre o Treinamento

O treinamento TensorFlow passa uma visão conceitual e prática de como trabalhar com o TensorFlow para Deep Learning com imagens e dados de grandes bases. Será apresentado como o Deep Learning pode ajudar na melhoria dos negócios nas corporações a partir de diversos algoritmos disponíveis neste software de código aberto desenvolvido pela Google. Além de demonstrar como usar e integrar bibliotecas com tensorFlow.

Objetivo

Ministrar as principais características do TensorFlow junto a uma visão geral dos algoritmos, e sua aplicação na solução de problemas de Deep Learning em ambientes de Big Data.

Público alvo do treinamento

Cientistas de Dados, Engenheiro de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores.


Turmas Somente inCompany

 

Conteúdo Programático

Introdução a Python 2h

  • A Linguagem Python.
  • Porque Python e TensorFlow?
  • Sintaxe Fundamental do Python.
  • Constantes e Variáveis.
  • Adição de vetores e matrizes.
  • Multiplicação de matrizes.
  • Produto escalar.
  • Placeholders.
  • Gerenciamento de pacotes com pip.
  • Jupyter Notebook.

Conceitual Deep Learning 6h

  • Introdução a Machine Learning.
  • Introdução a Deep Learning.
  • Deep Learning X Machine Learning.
  • Introdução Convolutional Neural Network (CNN).
  • Introdução a Redes Neurais (NN).
  • Introdução a Redes Neurais Recorrentes (RNN).
  • CPU X GPU X TPU.

Introdução a TensorFlow 2h

  • O que é o TensorFlow.
  • Ecossistema TensorFlow.
  • Quem usa o TensorFlow.
  • Cases do uso TensorFlow.
  • TensorFlow X IBM Watson.
  • Histórico do TensorFlow.
  • Empresas usando TensorFlow no Mundo.
  • Empresas usando TensorFlow no Brasil.
  • Free Software(GPL) X Open Source(BSD e Apache).

Introdução a Keras 1h

  • A Biblioteca Keras.
  • Keras e Python.

Instalação o Ambiente. 1h

  • Instalando o Python.
  • Configurando variáveis de ambiente.
  • Instalando o Bibliotecas Python (pandas, scikit-learn, keras).
  • Instalando o TensorFlow.
  • Instalando o Jupyter Notebook.
  • Configurando execução para GPU.

Classificação de imagens com Tensorflow 8h

  • Comparação Python e sintaxe Tensorflow.
  • Datasets de imagens.
  • Construindo um Modelo.
  • Implementando um classificador.
  • Treinando um Modelo.
  • Camada 0.
  • Camadas Ocultas.
  • Executando modelo na GPU.
  • Debugando o Modelo.
  • Tratamento do dados (Escala de cinza e normalização).
  • Acurácia do Modelo.
  • Under e overfitting.
  • Salvar modelo.

Colab 3h

  • Usando o Colab.
  • Colab e TensorFlow.
  • Limitações.
  • Custos para expansão.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento básico de programação.
  • Conhecimento básico Sistemas Operacionais.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM: 8 GB ideal 16GB.
  • Espaço em Disco: 50GB.
  • Processador: Quad Core.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares TensorFlow, Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento MongoDB Document-Oriented Database

Sobre o Treinamento

O treinamento em MongoDB passa uma visão conceitual e prática de como trabalhar com o banco de dados baseado a documentos de forma unitária e clusterizada.

Objetivo

Ministrar as principais características do MongoDB junto a uma visão geral das funcionalidades.

Público alvo do treinamento

Engenheiros de dados, Cientistas de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data

  • Introdução ao Big Data.
  • 4Vs do Big Data.
  • Big Data X BI.
  • DataLake
  • Data Scientist X Data Engineer.
  • Free Software X Open Source.

Introdução a MongoDB, NoSQL e JSON

  • Introdução a NoSQL.
  • NoSQL X SQL.
  • Características NoSQL.
  • Arquitetura do MongoDB.
  • Características do MongoDB.
  • Versões do MongoDB.
  • Licença do MongoDB.
  • Introdução ao JSON e BSON.
  • Schemaless.
  • JSON X XML.
  • CAP Theorem.
  • Histórico do MongoDB.
  • Quem usa MongoDB.

Instalação do MongoDB

  • Adquirindo arquivos de instalação.
  • Sistemas Operacionais suportados.
  • Instalando o MongoDB.
  • Conhecendo o mongod.conf.

Características do MongoDB

  • Aplicações com MongoDB
  • MongoDB Drivers.
  • Mongo Shell.
  • Nomenclaturas.
  • Tipos de dados.
  • MongoDB DML
  • Databases
  • Índices
  • Secondary Indexes.
  • Operadores
  • Geolocalização.
  • Servidor API/REST.
  • Nested Document.
  • Aggregation Framework. 

Modelagem de dados no MongoDB

  • Schema.
  • MongoDB Desnormalizando.

Manipulando MongoDB com Python

  • Introdução ao Python.
  • Syntax Fundamental do Python.
  • Criando um schema.
  • PyMongo.
  • MongoClient.
  • Bottle: Python Web Framework.
  • Manipulando documentos com Javascript no MongoShell
  • Servidor Flask.
  • Web Server com Python com MongoDB.
  • Removendo Documentos.
  • CRUD (INSERT, SELECT,UPDATE e DELETE).
  • Consultando Documentos  com filtros (SELECT, WHERE).
  • JSON Array e subDocument.
  • MVC com template bottle.

Segurança

  • Autorização e Autenticação.
  • Autenticação integrada.
  • Usuários e Roles.

Importação e Exportação

  • MongoImport
  • MongoExport

Monitoramento do MongoDB

  • Mongotop
  • Mongostat

Cluster e Replicação

  • Deployment & Scaling.
  • Replicação.
  • Clusterização.
  • Replica Sets.
  • Sharding.
  • Eventual Consistency.
  • Strong Consistency.
  • Multi Data Center

Backup e Restore

  • Backup do MongoDB
  • Restore do MongoDB.
  • Backup Node
  • Disaster Recovery.

MongoDB e Big Data

  • Analyzing Geospatial Data.
  • Hadoop e MongoDB.
  • Cenário Batch Aggregation.
  • Cenário: Data Warehouse.
  • Cenário ETL Data.
  • Arquiteta de Big Data.
  • Cases.
  • Mercado de Trabalho.
  • Certificações.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico em Programação.
  • Conhecimento Básico em Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • Deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox e 64Bits.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares MongoDB e Python e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento Liferay - Fundamental

Sobre o Treinamento

  O treinamento fundamental em Liferay prepara profissionais para o mercado de trabalho com uma Plataforma de Gerenciamento de Conteúdo empresarial  (Content Management Plataform). Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções Portal em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação programática e atividades práticas.

Público alvo do treinamento.

Gestores de Conteúdo Web, Gestores de TI, Programadores, Analistas de Sistemas e Engenheiros da Computação.


Turmas Somente inCompany

Objetivo

Ministrar as principais características do Liferay Portal. O funcionamento e instalação do ambiente Liferay, o gerenciamento do Portal e as customizações possíveis para criação de sites e intranets corporativas.

Conteúdo Programático

Conceitual Liferay

  • Introdução a Liferay.
  • Histórico do Liferay.
  • Liferay para Intranets.
  • Introdução a Portlets.
  • Liferay Plugins.
  • Arquitetura Liferay Portal.

Características do Liferay

  • Sites e Organizações.
  • Sistema de permissões.
  • Páginas de Conteúdo.
  • Portlets.
  • Documentos e Midias.
  • Liferay para colaboração.
  • Ferramentas de Colaboração.
  • Exibição de Conteúdo.
  • Blog, Wiki, Message Board, Calendário, Chat e Email.

Instalação Liferay

  • Pré-Requisitos de Instalação.
  • Adquirindo os arquivos de Instalação.
  • Instalando o Liferay

Administrando o Liferay

  • Gerenciando usuários através de organizações e grupos de usuários.
  • Administrando configuração Portal através do Painel de Controle.
  • Aplicando permissões para os usuários.
  • Criação e exibição de conteúdo básico através de Sites.
  • Gerenciando páginas em sites.
  • Compartilhamento de recursos através da hierarquia do site.
  • Como criar e usar o site e Modelos de Páginas.
  • Diferente tipos de Conteúdo disponíveis no Liferay.
  • Gerenciando seus documentos e mídia.
  • Usando Fluxo de Trabalho no Liferay.

Desenvolvimento e Customização do Liferay

  • Relacionando o conteúdo através do Asset Framework.
  • Estendendo informações padrão com campos personalizados.
  • Como usar o Dynamic Data List para recuperar informações.
  • Web Services.
  • Liferay Portlet Development (JSP, Struts, Spring, IPC, JSF).
  • Introdução a Desenvolvimento de Temas.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico de Java ou alguma linguagem com Orientação Objeto.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Liferaya e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento SuiteCRM - Gestão de Relacionamento com Clientes

Sobre o Treinamento

O SuiteCRM  é uma ferramenta open source de gestão de relacionamento com o cliente CRM. O SuiteCRM é a versão promissora do SugarCRM tido como líder mundial em Open Source software para gestão comercial para empresas de todos os portes. Adapta-se a qualquer ambiente de negócios por sua grande flexibilidade e seu atrativo custo benefício. Liberdade de alternativas para implantação, com servidor interno ou hospedagem externa, sempre haverá uma solução amigável e compatível com o perfil da sua empresa.

Este é um curso para quem precisa conhecer o essencial do produto o SuiteCRM Open Source e implantar uma solução de CRM. O curso permite desde o uso do CRM no dia-a-dia, com suas principais funcionalidades, até funções mais avançadas como Customizações. Todo o treinamento e ministrado sobre a versão Community do SuiteCRM, repassando conhecimentos sobre conceitos de CRM e os módulos do CRM: Contas, Contatos , Oportunidades, Atividades, Ligações, Campanhas, etc. Materiais SuiteCRM Community Edition em Português do Brasil. Ambiente de educação e metodologia de ensino personalizada.

Conheça o conteúdo programático do Treinamento SugarCRM que foi construído para formação de consultores na plataforma de CRM SuiteCRM, O mesmo mescla conhecimentos conceituais de CRM, conhecimentos de negócio, assim como necessidades de infraestrutura, integração e customização, necessários para implementação completa do Software de CRM.


Turmas Somente inCompany

 

Conteúdo Programático

Introdução a CRM

  • Conceitos básicos de CRM.
  • Introdução ao SuiteCRM.
  • Open Source e Free Software.
  • História do SuiteCRM.
  • SuiteCRM X SugarCRM X VTiger.
  • SuiteCRM X SalesForce.
  • Empresas usando SuiteCRM no Mundo.
  • Empresas usando SuiteCRM no Brasil.

Instalação e Configuração do SuiteCRM

  • Características do SuiteCRM.
  • Instalando o SuiteCRM.
  • Configurando SMTP e IMAP.
  • Configurando fila e Emails.
  • Introdução ao Administrador do SuiteCRM.

Módulos do SuiteCRM

  • Administrando contatos.
  • Administrando contas.
  • Administrando oportunidades.
  • Configurando o painel de trabalho.
  • Gerenciando atividades.
  • Gerenciando agenda.
  • Administrando documentos.
  • Administrando e-mails.
  • Administrando campanhas.
  • Administrando ocorrências.
  • Administração de Contratos.

Segurança no SuiteCRM.

  • Usuários.
  • Grupos de Segurança.
  • Configurações de Grupos de Segurança.
  • Perfil de Acesso.
  • Políticas e Gerenciamento de Senhas.
  • Preferências de Usuários.

SuiteCRM para  Marketing e Emails Marketing.

  • Característica do SuiteCRM para Marketing.
  • Tipos de campanhas.
  • Gestão de Orçamento.
  • Administração de Campanhas de Email.
  • Configurações para disparo em Massa.
  • Integrações com Serviços SMTPs externos.

Planejamento para Implantação do SuiteCRM.

  • Requisitos.
  • Primeiros passos.
  • Fases.
  • Cultura de CRM para equipe.

Plugins.

  • Arquitetura de Plugins.
  • Instalação de Plugins.
  • Plugins interessantes.
  • Plugins para desenvolvimento de relatórios.

Relatórios.

  • PDF Manager.
  • Relatório de Linhas e Colunas.
  • Relatório de Totais com Detalhes.
  • Relatório de Totais.

Workflow.

  • Gestão de Workflow.
  • Desenvolvendo um Workflow.

SuiteCRM para Administradores e Desenvolvedores.

  • Estrutura de módulos do SugarCRM.
  • Conhecendo o Studio.
  • Desenvolvendo no Studio.
  • Criando novos campos em módulos nativos.
  • Renomeando guias.
  • Gerenciando guias.
  • Desenvolvendo com drop down.
  • Trabalhando com localização.
  • Configurações de Dashlets.
  • Perfis de Acesso.
  • Instalando novos módulos.
  • Configurações de e-mails.
  • Configurações gerais.
  • Interagindo com PHP e JavaScript.
  • Exportando módulos desenvolvidos.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Para os módulos iniciais nenhum conhecimento prévio é exigido.
  • Para as últimas 3 horas de treinamento no modulo de desenvolvedores e necessário conhecimento em básico em banco de dados, PHP e Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 6 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • Deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares SuiteCRM e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento Apache Mahout

Sobre o Treinamento

O treinamento Apache Mahout passa uma visão conceitual e prática de como trabalhar com o Mahout para mineração de dados e aprendizado de maquina em grandes clusters de Big Data. Será apresentado como o Data Mining pode ajudar na melhoria dos negócios nas corporações apartir de diversos algoritmos disponíveis neste software de cógido aberto.

Objetivo

Ministrar as principais características do Apache Mahout junto a uma visão geral dos algoritmos, e sua aplicação na solução de problemas de Data Mining em ambientes de Big Data.

Público alvo do treinamento

Cientistas de Dados, Gestores de TI, Analistas de Business Intelligence, Engenheiros da Computação, Programadores, Analistas de Negócio


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Mahout

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Apache Spark MLib X Apache Mahout.
  • Histórico do Apache Mahout.
  • Casos de uso de Mahout.
  • Empresas usando Mahout no Mundo.

Introdução a Mahout

  • Arquitetura do Mahout.
  • Características do Mahout.
  • Versões do Mahout.

Instalação o Apache Mahout

  • Instalando o Mahout.
  • Mahout no Cluster Hadoop.
  • Configurações do Apache Mahout.

Algoritmos no Mahout

  • Algoritmos Mahout.
  • Recomendações no Mahout (Recomender System)
  • Representando Dados de Recomendação.
  • Classificação com Mahout (Naive Bayes).
  • Clusterização com Mahout (K-Means).

Desenvolvendo com Apache Mahout.

  • Samsara Scala-DSL
  • Mahout com Scala.
  • Mahout MapReduce.
  • Mahout com Apache Spark.
  • Mahout com Apache Flink.
  • Mahout com Apache Zeppelin.

Integração com outras Ferramentas.

  • Mahout e Hive.
  • Mahout e HDFS.
  • Mahout e Apache Pig.

Tunning.

  • JVM Tunning.

Carga Horária:

  • 24 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento Básico em Programação Java ou alguma linguagem com Orientação Objeto.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • Deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox e 64Bits.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Mahout e Hadoop e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento Apache Flink com Scala

Sobre o Treinamento

O treinamento Apache Flink e voltado para profissionais de big data e ciência de dados qua atuam com administração de clusters com Apache Flink implantado mas  principalmente para desenvolvedores para que possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Flink, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Flink. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Flink com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Flink para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Apache Flink X Apache Spark.
  • Histórico do Apache Flink.
  • Casos de uso de Flink.
  • Empresas usando Flink no Mundo.
  • Empresas usando Flink no Brasil.

Introdução a Linguagem Scala

  • A Linguagem Scala.
  • Linguagens JVMs.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive - Interactive Scala.
  • Escrevendo scripts Scala.
  • Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala.

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Flink.

  • Visão geral da arquitetura Flink.
  • Instalando o Apache Flink.
  • Modos do Flink.
  • Standalone Cluster.
  • Multi-Node Flink Cluster.
  • Gerenciamento de memória.

Desenvolvendo com Apache Flink.

  • Invocando Scala REPL.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Scala REPL.
  • Realizando algumas operações básicas em arquivos em Scala REPL.
  • Paralelo Stream.

Flink DataStream API - Streaming.

  • Event Time.
  • Estado e Tolerância a falha.
  • Operadores.
  • Conectores.
  • Window SQL.

Flink DataSet API - Batch.

  • Transformações.
  • Interações.
  • Conectores.
  • Execução Local.
  • Execução em Cluster.
  • Zipping.
  • Compatibilidade com Hadoop.

Flink Table SQL API e Hive

  • Arquitetura Table SQL.
  • Data Type.
  • Table API.
  • SQL e SQL Client.
  • UDFs.
  • Data Sinks.
  • Catalogos.
  • Window Table SQL.
  • Integrando com Hive.

Recursos gerais

  • CEP.
  • Melhores práticas.

Apache Flink e Pentaho.

  • Overview Suite Pentaho.
  • Pentaho data Integration e AEL - Adaptative Execution Layer.
  • Data Visualization.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Flink e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Instrutor

Leia mais...

Treinamento Apache NiFi Dataflow

Sobre o Treinamento

Este treinamento é recomendado a técnicos que já conheçam os conceitos e o básicos do Hadoop e queiram ampliar seus conhecimento sobre Dataflow. A distribuição da Hortonworks será utilizada como base deste treinamento apesar do NiFi poder ser instalado em qualquer distribuição.O NiFi foi projetado para automatiza fluxo de dados entre sistemas de software, integração de dados de diversas origens com diversos tipos de destinos, usando bancos de dados, Hadoop (HDFS), Kafka, Apache Spark, entre outras fontes de dados. O Apache NiFi é um projeto de software da Apache Software Foundation e baseado no software "NiagaraFiles" desenvolvido pela NSA.

Calendário de turmas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos e técnicas de DataFlow com o Apache NiFi.

Público Alvo

O Treinamento Apache NiFi destina-se a profissionais analistas de BI, Desenvolvedores de ETL, Gestores de TI, desenvolvedores de sistemas, Cientistas de dados e Engenheiros de dados.

Conteúdo Programático:

Introdução ao Hadoop

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.
  • Apache Software Foundation.
  • Sqoop X Pentaho Data Integration X NiFi X Talend.

Introdução ao Nifi.

  • Dados em repouso X dados em movimento.
  • Arquitetura do NiFi.

Configurando e executando um cluster NiFi.

  • Cluster Integration.
  • Load Balancing/Redundancy.
  • Orquestração em massa de NiFi.

Operações NiFi.

  • Database Aggregating, Splitting and Transforming.
  • Extração de dados, logs, etc.
  • Trabalhando com dados via FTP e SSH.
  • Trabalhando com dados de Bases de Dados (NoSQL e SQL).
  • Conexões com Webservices ( REST ou SOAP).
  • Integração com Splunk.

Monitoramento e Recovery.

  • Recuperando sem perda de dados.
  • Recuperação autônoma.

Otimizando o Apache NiFi.

  • Performance e Tunning.
  • Nifi Setup.

Desenvolvimento.

  • Ferramentas de desenvolvimento de aplicativos.
  • Ferramentas de ETL.
  • Componentes, eventos e padrões de processador.
  • Streaming de feeds de dados no HDFS.
  • Error Handling.
  • Controller Services.
  • Ingestão de dados de dispositivos IoT usando APIs baseadas na Web.
  • Desenvolvendo um processador Apache Nifi personalizado usando JSON.

Melhores Pŕaticas

  • Troubleshooting.
  • Teste e solução de problemas

Pré-requisitos de Conhecimento

  • Conhecimento básico Linux.
  • Conhecimento básico de redes (proxy, gateway,etc).

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 16GB
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 24 Horas de Duração.
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache NiFi e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Apache NiFi, e cursos sobre Apache NiFi. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Treinamento Administrador Apache Hadoop

Sobre o Treinamento

Este treinamento é recomendado a técnicos que já conheçam os conceitos e o básicos do Hadoop e queiram ampliar seus conhecimento sobre o Hadoop Database ou HBase que é um banco de dados do ecossistema Hadoop distribuído e colunar. O treinamento pode ser ministrado nas versão open source da Apache ou nas comerciais Cloudera e Hortonworks.

Calendário de turmas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos e técnicas de administração de um cluster Hadoop.

Público Alvo

O Treinamento Administrador Hadoop destina-se a profissionais Administradores de sistemas, Cientistas de dados e Engenheiros de dados.

Conteúdo Programático:

Introdução ao Hadoop

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.
  • Apache Software Foundation.

HDFS – Hadoop File System.

  • Arquitetura do HDFS.
  • Características do HDFS.
  • Escrevendo e lendo arquivos.
  • Considerações ao NameNode.
  • Segurança no HDFS.
  • Usando Interface Web do NameNode.
  • Usando o Shell Hadoop.
  • Inserindo dados de fontes externas com flume.
  • Inserindo dados de banco de dados relacionais com Sqoop.
  • Interfaces REST.
  • Melhores praticas de Importação de dados.

YARN e MapReduce.

  • Conceitual sobre YARN e MapReduce.
  • Conceitos Básicos de MapReduce.
  • Cluster YARN.
  • Recuperação de falha.
  • Usando Interface Web YARN.

Planejando o Cluster Hadoop.

  • Considerações gerais.
  • Seleção de Hardware.
  • Considerações de Rede.
  • Configuração de Nodes.
  • Planejando o gerenciamento do Cluster.

Instalação e configurações Hadoop.

  • Requisitos de instalação.
  • Pacotes de instalação.
  • Modo de Instalação (SingleCluster, DistribuidMode).
  • Configuração do ambiente de rede.
  • Clusterizando o Hadoop.
  • Configuração inicial de Performance do HDFS.
  • Configuração inicial de Performance do YARN.
  • Logs no Hadoop.

Instalação e Configurando o Ecossistema.

  • Instalando o Apache Hive.
  • Instalando Impala (Somente em Cloudera).
  • Instalando Apache Pig.
  • Instalando Apache HBase.
  • Instalando Apache Spark.

Aplicações Clientes Hadoop.

  • Introdução a aplicações Clientes Hadoop.
  • Introdução ao HUE.
  • Instalação e Configuração do Hue.
  • Instalando e Configurando HUE.
  • HUE autenticação e autorização

Segurança Hadoop.

  • Conceitos de Segurança no Hadoop.
  • Introdução ao Kerberos.
  • Segurança no Cluster Hadoop com Kerberos.

Gerenciando com Hadoop Ambari (Apache e Hortonworks).

  • Introdução ao Ambari.
  • Características do Ambari.
  • Gerenciando um Cluster Hadoop.
  • Monitorando um Cluster Hadoop.

Gerenciando com Cloudera Maneger (Somente Cloudera).

  • Introdução ao Cloudera Manager.
  • Características do Cloudera Managament.
  • Gerenciando um Cluster Hadoop.
  • Monitorando um Cluster Hadoop.

Hadoop Cluster.

  • Parâmetros de Configuração.
  • Configurando as Portas do Hadoop.
  • Configurando o HDFS para alta disponibilidade.

Gerenciando e Agendando Jobs.

  • Gerenciando e Rodando Jobs.
  • Agendando Jobs Hadoop.
  • Impala Query Schedule.

Manutenção do Cluster.

  • HDFS Status.
  • Copiando dados entre Clusters.
  • Balanceamento de Clusters.
  • Tunning
  • Atualização do Cluster

Pré-requisitos de Conhecimento

  • Conhecimento básico Linux.
  • Conhecimento básico de redes (proxy, gateway,etc)

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 12GB (Caso queira o treinamento em Hortonworks deve ter 16GB de RAM)
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 32 Horas de Duração.
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Hadoop e acessórios na sua última versão estável (no caso de Cloudera os alunos devem baixar o Cloudera QuickStart VMs).
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Administrador Hadoop, e cursos sobre Administrador Hadoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Treinamento Apache HBase - Fundamental

Sobre o Treinamento

Este treinamento é recomendado a técnicos que já conheçam os conceitos e o básicos do Hadoop e queiram ampliar seus conhecimento sobre o Hadoop Database ou HBase que é um banco de dados do ecossistema Hadoop distribuído e colunar. O treinamento pode ser ministrado nas versão open source da Apache ou nas comerciais Cloudera e Hortonworks.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos e técnicas de administração do banco de dados Hbase.

Público Alvo

O Treinamento Hbase destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, Cientistas de dados e Engenheiros de dados.

Conteúdo Programático:

Introdução ao Hadoop

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.
  • Apache Software Foundation.

Fundamentos do HBase

  • Introdução a NoSQL.
  • Introdução a Bancos de Dados Colunares.
  • Histórico do HBase.
  • Características do HBase.
  • HBase e RDBMS.
  • SQL X NoSQL.
  • Arquitetura do HBase.
  • HBase Shell.
  • HBase DDL e DML.
  • Table, RowKey, Family, Column e Timestamp.
  • Hbase Regions.
  • Data Storage.
  • Zookepper.
  • Criando e Manipulando um Banco de Dados HBase.
  • HBase Schema.
  • HBase Data Model.
  • HBase schemas.
  • Hbase timestamp.
  • HBase cell.
  • HBase Familias.
  • Armazenamento de dados eficiente e recuperação
  • Melhores práticas para desempenho
  • Comandos de manipulação

HBase Shell

  • Criando tabelas com HBase Shell.
  • Trabalhando com tabelas.
  • Trabalhando com dados da tabela.

HBase API.

  • Opções para acessar os dados do HBase.
  • Criando e deletando tabelas no HBase.
  • Get e Scan.
  • Inserindo e atualizando dados.
  • Excluindo dados.
  • Filtros scan.
  • Melhores práticas.
  • HBase e Java
  • Conectando ao HBase com Java
  • Java API.

HBase no cluster

  • O uso do HDFS.
  • Compactações e splits.
  • Mapreduce e Cluster HBase.
  • Instalação do HBase.
  • Configurar um cluster HBase.
  • Administrar um cluster HBase.
  • HBase daemons.

HBase Cluster

  • Family.
  • Schema.
  • Caching.
  • Times Series.
  • Sequencial.
  • Pre-Splitting Regions.

HBase Avançado

  • Replicação no HBase.
  • HBase backup.
  • Segurança no HBase.
  • Serviços HBase.
  • Corrigindo tabelas com Hbck.
  • Hive e Impala com Hbase.
  • Thrift.
  • Outras Bibliotecas de acesso.
  • HBase Rest Server.
  • Backup

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB (Caso queira o treinamento em Hortonworks deve ter 16GB de RAM)
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 32 Horas de Duração.
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache HBase e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos HBase, e cursos sobre HBase. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...
Se inscrever nesse feed RSS

Log in