Zeebe

Marcio Junior Vieira

Marcio Junior Vieira

  • 22 anos de experiência em informática, vivência em desenvolvimento e análise de sistemas de gestão empresarial e ciência de dados.
  • CEO da Ambiente Livre atuando como Cientista de Dados, Engenheiro de Dados e Arquiteto de Software.
  • Professor dos MBAs em Big Data & Data Science, Inteligência Artificial e Business Intelligence da Universidade Positivo.
  • Professor de BPM no MBA de Business Intelligence da Universidade Positivo.
  • Professor do MBA Artificial Intelligence e Machine Learning da FIAP.
  • Pesquisador pela Universidade de Brasília no Laboratório de Tecnologias da Tomada de Decisão - UnB/LATITUDE.
  • Graduado em Tecnologia em Informática(2004) e pós-graduado em Software Livre(2005) ambos pela UFPR.
  • Palestrante FLOSS em: FISL, The Developes Conference, Latinoware, Campus Party, Pentaho Day, Ticnova, PgDay e FTSL.
  • Organizador Geral: Pentaho Day 2017, 2015, 2019 e apoio nas ed. 2013 e 2014.
  • Data Scientist, instrutor e consultor de Big Data e Data Science com tecnologias abertas.
  • Ajudou a capacitar equipes de Big Data na IBM, Accenture, Tivit, Sonda, Serpro, Dataprev, Natura, MP, Netshoes, Embraer entre outras.
  • Especialista em implantação e customização de Big Data com Hadoop, Spark, Pentaho, Cassandra e MongoDB.
  • Contribuidor de projetos open sources ou free software internacionais, tais como Pentaho, Apache Hop, LimeSurveySuiteCRM e Camunda.
  • Especialista em implantação e customização de ECM com Alfresco e BPM com ActivitiFlowable e Camunda.
  • Certificado (Certified Pentaho Solutions) pela Hitachi Vantara (Pentaho inc).
  • Ganhou o prêmio Camunda Champion em 2022 em reconhecimento a suas contribuições com o projeto Open Source Camunda.
  • Membro da The Order Of de Bee (Comunidade Alfresco trabalhando para desenvolver o ecossistema Alfresco independente)

URL do seu site:

Treinamento Apache Flink com Scala

Sobre o Treinamento

O treinamento Apache Flink e voltado para profissionais de big data e ciência de dados qua atuam com administração de clusters com Apache Flink implantado mas  principalmente para desenvolvedores para que possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Flink, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Flink. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Flink com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Flink para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.


Turmas Somente inCompany

 

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Apache Flink X Apache Spark.
  • Histórico do Apache Flink.
  • Casos de uso de Flink.
  • Empresas usando Flink no Mundo.
  • Empresas usando Flink no Brasil.

Introdução a Linguagem Scala

  • A Linguagem Scala.
  • Linguagens JVMs.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive - Interactive Scala.
  • Escrevendo scripts Scala.
  • Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala.

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Flink.

  • Visão geral da arquitetura Flink.
  • Instalando o Apache Flink.
  • Modos do Flink.
  • Standalone Cluster.
  • Multi-Node Flink Cluster.
  • Gerenciamento de memória.

Desenvolvendo com Apache Flink.

  • Invocando Scala REPL.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Scala REPL.
  • Realizando algumas operações básicas em arquivos em Scala REPL.
  • Paralelo Stream.

Flink DataStream API - Streaming.

  • Event Time.
  • Estado e Tolerância a falha.
  • Operadores.
  • Conectores.
  • Window SQL.

Flink DataSet API - Batch.

  • Transformações.
  • Interações.
  • Conectores.
  • Execução Local.
  • Execução em Cluster.
  • Zipping.
  • Compatibilidade com Hadoop.

Flink Table SQL API e Hive

  • Arquitetura Table SQL.
  • Data Type.
  • Table API.
  • SQL e SQL Client.
  • UDFs.
  • Data Sinks.
  • Catalogos.
  • Window Table SQL.
  • Integrando com Hive.

Recursos gerais

  • CEP.
  • Melhores práticas.

Apache Flink e Pentaho.

  • Overview Suite Pentaho.
  • Pentaho data Integration e AEL - Adaptative Execution Layer.
  • Data Visualization.

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8 GB.
  • Espaço em Disco: 20GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM (Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Flink e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Inscrições, Informações e Valores

Powered by BreezingForms


Instrutor

Leia mais...

Treinamento Administrador Apache Hadoop

Sobre o Treinamento

Este treinamento é recomendado a técnicos que já conheçam os conceitos e o básicos do Hadoop e queiram ampliar seus conhecimento sobre o Hadoop Database ou HBase que é um banco de dados do ecossistema Hadoop distribuído e colunar. O treinamento pode ser ministrado nas versão open source da Apache ou nas comerciais Cloudera e Hortonworks.

O treinamento Administrador Apache Hadoop prepara o aluno para ser capaz de customizar a utilização, ajustar performance, prestar suporte e resolver problemas relacionados aos produtos, dominando elementos de monitoramento de cluster, governança, segurança e solução de problemas. Compreender a abrangência de todas as medidas necessárias para operar e manter um Cluster Hadoop. Desde a instalação e configuração por meio do balanceamento de carga e tunning, e autorizar usuários a uso de cluster. Saber Dimensionar e implementar vários cluster Hadoop, saber acelerar seu funcionamento e quais ferramentas e técnicas melhoram o desempenho, de forma a ajustar a performance. Estar apto a prestar suporte e resolver problemas relacionados aos produtos, fazer backups e gestão de recuperação de desastres, configurar HDFS de alta disponibilidade, adicionar um novo serviço, além de implementar medidas de segurança e funcionalidade multi-usuário.

Calendário de turmas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos e técnicas de administração de um cluster Hadoop.

Público Alvo

O Treinamento Administrador Hadoop destina-se a profissionais Administradores de sistemas, Cientistas de dados e Engenheiros de dados.

Conteúdo Programático:

Introdução ao Hadoop

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.
  • Apache Software Foundation.

HDFS – Hadoop File System.

  • Arquitetura do HDFS.
  • Características do HDFS.
  • Escrevendo e lendo arquivos.
  • Considerações ao NameNode.
  • Segurança no HDFS.
  • Usando Interface Web do NameNode.
  • Usando o Shell Hadoop.
  • Inserindo dados de fontes externas com flume.
  • Inserindo dados de banco de dados relacionais com Sqoop.
  • Interfaces REST.
  • Melhores praticas de Importação de dados.

YARN e MapReduce.

  • Conceitual sobre YARN e MapReduce.
  • Conceitos Básicos de MapReduce.
  • Cluster YARN.
  • Recuperação de falha.
  • Usando Interface Web YARN.

Planejando o Cluster Hadoop.

  • Considerações gerais.
  • Seleção de Hardware.
  • Considerações de Rede.
  • Configuração de Nodes.
  • Planejando o gerenciamento do Cluster.

Instalação e configurações Hadoop.

  • Requisitos de instalação.
  • Pacotes de instalação.
  • Modo de Instalação (SingleCluster, DistribuidMode).
  • Configuração do ambiente de rede.
  • Clusterizando o Hadoop.
  • Configuração inicial de Performance do HDFS.
  • Configuração inicial de Performance do YARN.
  • Logs no Hadoop.

Instalação e Configurando o Ecossistema.

  • Instalando o Apache Hive.
  • Instalando Impala (Somente em Cloudera).
  • Instalando Apache Pig.
  • Instalando Apache HBase.
  • Instalando Apache Spark.

Aplicações Clientes Hadoop.

  • Introdução a aplicações Clientes Hadoop.
  • Introdução ao HUE.
  • Instalação e Configuração do Hue.
  • Instalando e Configurando HUE.
  • HUE autenticação e autorização

Segurança Hadoop.

  • Conceitos de Segurança no Hadoop.
  • Introdução ao Kerberos.
  • Segurança no Cluster Hadoop com Kerberos.

Gerenciando com Hadoop Ambari (Apache e Hortonworks).

  • Introdução ao Ambari.
  • Características do Ambari.
  • Gerenciando um Cluster Hadoop.
  • Monitorando um Cluster Hadoop.

Gerenciando com Cloudera Manager (Somente Cloudera).

  • Introdução ao Cloudera Manager.
  • Características do Cloudera Managament.
  • Gerenciando um Cluster Hadoop.
  • Monitorando um Cluster Hadoop.

Hadoop Cluster.

  • Parâmetros de Configuração.
  • Configurando as Portas do Hadoop.
  • Configurando o HDFS para alta disponibilidade.

Gerenciando e Agendando Jobs.

  • Gerenciando e Rodando Jobs.
  • Agendando Jobs Hadoop.
  • Impala Query Schedule.

Manutenção do Cluster.

  • HDFS Status.
  • Copiando dados entre Clusters.
  • Balanceamento de Clusters.
  • Tunning
  • Atualização do Cluster

Pré-requisitos de Conhecimento

  • Conhecimento básico Linux.
  • Conhecimento básico de redes (proxy, gateway,etc)

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 12GB (Caso queira o treinamento em Hortonworks deve ter 16GB de RAM)
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 32 Horas de Duração.
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Hadoop e acessórios na sua última versão estável (no caso de Cloudera os alunos devem baixar o Cloudera QuickStart VMs).
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Administrador Hadoop, e cursos sobre Administrador Hadoop. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache HBase - Fundamental

Sobre o Treinamento

Este treinamento é recomendado a técnicos que já conheçam os conceitos e o básicos do Hadoop e queiram ampliar seus conhecimento sobre o Hadoop Database ou HBase que é um banco de dados do ecossistema Hadoop distribuído e colunar. O treinamento pode ser ministrado nas versão open source da Apache ou nas comerciais Cloudera e Hortonworks.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos e técnicas de administração do banco de dados Hbase.

Público Alvo

O Treinamento Hbase destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, Cientistas de dados e Engenheiros de dados.

Conteúdo Programático:

Introdução ao Hadoop

  • Introdução ao Hadoop.
  • Histórico do projeto Apache Hadoop.
  • Características do Hadoop.
  • Conceitos fundamentais.
  • Componentes do núcleo do Hadoop.
  • Ecossistema Hadoop.
  • Exemplos de casos de uso.
  • Principais empresas que usam Hadoop no Mundo.
  • Principais empresas que usam Hadoop no Brasil.
  • Apache Software Foundation.

Fundamentos do HBase

  • Introdução a NoSQL.
  • Introdução a Bancos de Dados Colunares.
  • Histórico do HBase.
  • Características do HBase.
  • HBase e RDBMS.
  • SQL X NoSQL.
  • Arquitetura do HBase.
  • HBase Shell.
  • HBase DDL e DML.
  • Table, RowKey, Family, Column e Timestamp.
  • Hbase Regions.
  • Data Storage.
  • Zookepper.
  • Criando e Manipulando um Banco de Dados HBase.
  • HBase Schema.
  • HBase Data Model.
  • HBase schemas.
  • Hbase timestamp.
  • HBase cell.
  • HBase Familias.
  • Armazenamento de dados eficiente e recuperação
  • Melhores práticas para desempenho
  • Comandos de manipulação

HBase Shell

  • Criando tabelas com HBase Shell.
  • Trabalhando com tabelas.
  • Trabalhando com dados da tabela.

HBase API.

  • Opções para acessar os dados do HBase.
  • Criando e deletando tabelas no HBase.
  • Get e Scan.
  • Inserindo e atualizando dados.
  • Excluindo dados.
  • Filtros scan.
  • Melhores práticas.
  • HBase e Java
  • Conectando ao HBase com Java
  • Java API.

HBase no cluster

  • O uso do HDFS.
  • Compactações e splits.
  • Mapreduce e Cluster HBase.
  • Instalação do HBase.
  • Configurar um cluster HBase.
  • Administrar um cluster HBase.
  • HBase daemons.

HBase Cluster

  • Family.
  • Schema.
  • Caching.
  • Times Series.
  • Sequencial.
  • Pre-Splitting Regions.

HBase Avançado

  • Replicação no HBase.
  • HBase backup.
  • Segurança no HBase.
  • Serviços HBase.
  • Corrigindo tabelas com Hbck.
  • Hive e Impala com Hbase.
  • Thrift.
  • Outras Bibliotecas de acesso.
  • HBase Rest Server.
  • Backup

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB (Caso queira o treinamento em Hortonworks deve ter 16GB de RAM)
  • Espaço em Disco: 20GB.
  • Processador: i5 ou i7 a partir da segunda geração ou similar.
  • Sistemas Operacionais: GNU/Linux, Windows ou Mac OS.
  • Todos equipamentos devem ter algum software de virtualização Oracle Virtual Box.

Carga Horária

  • 32 Horas de Duração.
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache HBase e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos HBase, e cursos sobre HBase. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Questionários Online com LimeSurvey - Fundamental

Sobre o Treinamento.

O LimeSurvey é um software livre desenvolvido com o objetivo de preparar, publicar e coletar respostas de questionários. Uma vez criado um questionário, ele pode ser publicado Online (questão por questão, grupo a grupo de questões ou tudo em uma única página de questionários). O LimeSurvey permite definir como as questões serão mostradas e variar o formato dos questionários por meio de um sistema de padrões ( templates ). Fornece ainda uma análise estatística básica sobre os resultados dos questionários.

O LimeSurvey possui a capacidade de gerar Tokens individualizados (chaves), de forma que apenas a pessoa que receber um token poderá acessar o questionário. Tokens são informações enviadas para a lista de pessoas, que você quer convidar para participar de um questionário, de forma a permitir maior controle do questionário disponibilizado pela Internet.

Calendário de turmas Limesurvey.

  1. Online Ao Vivo
  • Data: a -
  • Local: Google Meet - Online Ao Vivo
  • Inscreva-se
next
prev

Modalidades do Treinamento.

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Objetivo.

Ensinar as principais funcionalidades do LimeSurvey para condução e pesquisas simples e complexas através da web, Sejam pesquisas de clima organizacional, satisfação de cliente, relacionamento, ou qualquer pesquisa baseada em formulários de preenchimento.

Público Alvo.

Pesquisadores, Estatísticos, Analistas de TI, Web Designers ou qualquer pessoa com interesse em pesquisas.

Conteúdo Programático.

Conceitual

  • Introdução ao LimeSurvey.
  • O projeto LimeSurvey.
  • O Portal Limesurvey.com.
  • Licenciamento (Free Software X Open Source).
  • Principais características do LimeSurvey.
  • LimeSurvey X Google Forms X Google Survey X  SurveyMonkey.
  • Empresas usando LimeSurvey no Mundo.
  • Empresas usando LimeSurvey no Brasil.

Instalação e Configuração.

  • Configuração do Apache HTTP Server.
  • Configuração do PHP.
  • Configuração do banco de dados (MariaDB, MySQL ou PostgreSQL)
  • Instalação do Limesurvey.
  • Configurações iniciais do LimeSurvey.
  • Configurações Globais.
  • Configuração da HomePage.

Administração de Segurança.

  • Criando usuários.
  • Criando grupos.
  • Vinculando usuários aos grupos.
  • Integração com LDAP (OpenLDAP ou Active Directory).
  • Definições de acessos.
  • Controle de tokens.

Características e Funcionalidades.

  • Configurando questionários.
  • Criando grupos de perguntas.
  • Configurando perguntas.
  • Tipos de perguntas.
  • Condicionais em Perguntas.
  • Trabalhando com legendas.
  • Análises de respostas.
  • Gráficos e Relatórios.
  • Estatísticas.
  • Exportação de dados para análise externa.
  • Envio de e-mails de convite.
  • Administração de cotas.
  • Regras de Avaliação.
  • Validação de campos.
  • Recursos Avançado.
  • Conceito de conteúdo.
  • Conceito sobre site.
  • Armazenamento de documentos.
  • Incluindo vídeos e Imagens.
  • Integrando com Youtube.
  • Criando uma pergunta com áudio (mp3).
  • Integração com Google Maps.
  • Administrando participantes
  • Impressão do Questionário para coleta manual.
  • Entrada de dados manual.

Expression Management

  • Benefícios da EM (Expression Management).
  • Validação.
  • Relevância.
  • Equações Condicionais.
  • SGQA.

Importação e Exportação

  • Exportação de respostas para SPSS.
  • Exportação de respostas para Excel.
  • Importando e exportando questionários.
  • Importando e exportando perguntas.
  • Importando e exportando respostas.

Internacionalização

  • Multilinguagem.
  • Tradução de Questionários.
  • Tradução de Perguntas.
  • Tradução de Respostas.
  • Tradução de Templates.
  • Tradução do LimeSurvey.

Templates

  • Administrando templates.
  • Criando novos templates.
  • Adquirindo templates desenvolvidos.

Expressões Regulares (ER).

  • Validando respostas com Expressões regulares.
  • Validando email.
  • Validando CPF e CNPJ.
  • Validando o CEP.
  • Validando números de telefones.
  • Validando textos.

Integrações com a API REST.

  • Remotecontrol (XML-RPC/JSON-RPC).
  • Configurando acesso a API.
  • Autenticação e controle de seção.
  • Um Exemplo usando a API com PHP.
  • Suporte de outros Linguagens(Python,NodeJs,R,Java,C#).
  • Principais métodos da API.

Customizações e manipulação questionários com Javascript.

  • Configurando o LimeSurvey para uso de Javascript.
  • Como incluir Javascript personalizado.
  • Manipulação de questionários em tempo de execução.
  • Manipulação de perguntas em tempo de execução.
  • Manipulação de respostas em tempo de execução.
  • Como incluir Javascript personalizado.
  • Entendendo os eventos para inclusão de Javascript.
  • Variáveis de ambiente.
  • Manipulação com JQuery.
  • Incluindo novas bibliotecas Javascript.

Backup

  • Verificar integridade dos dados.
  • Backup da Aplicação.
  • Backup dos dados.
  • Backup das personalizações e temas.

Recursos Avançados

  • Plugins LimeSurvey.
  • Entendendo o Banco de dados.
  • Ferramentas de Apoio.
  • Boas práticas gerais.
  • Integração com App Mobile.

Pré-requisitos de Conhecimento

  • Para as funcionalidades de uso não há pré-requisitos, apesar de experiência na área de pesquisas ajudar.
  • Para os tópicos de templates ter conhecimento básico em CSS, HTML.
  • Para os tópicos de Javascript ter conhecimento básico em Lógica de Programação.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 4GB
  • Espaço em Disco: 5GB
  • Processador: 2 Cores.
  • Sistemas Operacionais : GNU/Linux, Windows ou Mac OS.

Carga Horária

  • 16 Horas de Duração.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares do LimeSurvey e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Próxima Turma

  • Data: a -
  • Local: Google Meet Ao Vivo
  • Inscreva-se
 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos LimeSurvey, e cursos LimeSurvey. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento PostgreSQL para Desenvolvedores

Sobre o Treinamento

Nosso treinamento visa formar desenvolvedores com todo suporte as funções do PostgreSQL. Para desenvolvedores ou arquitetos de sistema é uma excelente formação para aprenderem ao máximo das capacidades do banco de dados assim como pontos de interação programática. Para Administradores do Ambiente (DBAs) recomendamos nossa outra formação chamada PostgreSQL para DBAs.

O PostgreSQL é um sistema gerenciador de banco de dados objeto relacional (SGBDOR), desenvolvido como projeto de código aberto.Hoje, o PostgreSQL é um dos SGBDs (Sistema Gerenciador de Bancos de Dados) de código aberto mais avançados, contando com recursos como: consultas complexas, chaves estrangeiras, Integridade transacional , Controle de concorrência multi-versão , Suporte ao modelo híbrido objeto-relacional, Ele tem facilidade de Acesso Gatilhos, Visões ,Linguagem Procedural em várias linguagens (PL/pgSQL, PL/Python, PL/Java, PL/Perl) para procedimentos armazenados, indexação por texto e estrutura para guardar dados Georeferenciados PostGIS.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ensinar as principais funcionalidades do PostgreSQL para administração e implementar aplicações no banco de dados para sistemas corporativos.

Público Alvo

Analistas de sistemas, programadores e equipe de desenvolvimento..

Conteúdo Programático:

Conceitual

  • Histórico do PostgreSQL.
  • Fundamentos da arquitetura.
  • Principais características.
  • Principais funcionalidades.
  • Plataformas suportadas.
  • Limitações do PostgreSQL.
  • Licenciamento.
  • Open Software X Free Software.
  • Quem usa PostgreSQL no Mundo.
  • Quem usa PostgreSQL no Brasil.
  • Comunidade PostgreSQL.
  • Posicionamento no mercado.
  • Empresas e Entidades colaboradoras do PostgreSQL.
  • PostgreSQL na Cloud.

Instalação e Configuração.

  • Instalação no Linux.
  • Configuração do ambiente.
  • Arquivo postgresql.conf

A linguagem SQL no PostgreSQL.

  • Sintaxe SQL.
  • Características SQL ANSI.
  • Definição de dados.
  • Manipulação de dados.
  • Consultas.
  • Tipos de dados.
  • Funções e operadores.
  • Conversão de tipo.
  • Índices
  • Pesquisa de texto completo.
  • Controle de concorrência.
  • Dicas de desempenho.

Índices e Performance de consultas.

  • Funcionamento do Otimizador de consulta.
  • Tipos de índices.
  • Análise da sintaxe SQL.
  • Diferenças de performance entre comandos SQL.
  • Boas práticas para a construção de SQL.
  • Visualização do plano de execução (EXPLAIN)..
  • Comparação de custos.
  • Controle do comportamento do otimizador.
  • Índices GiST.
  • Índices GIN.

Características e Funcionalidades

  • Funcionamento interno do PostgreSQL.
  • Transações.
  • Registro prévio de escrita (WAL).
  • Herança.
  • Particionamento.
  • Suporte a Java.
  • Segurança.
  • Funções.
  • Características do Oracle que fazem falta no PostgreSQL.
  • Características no PostgreSQL que fazem falta no Oracle.
  • Padronização do banco de dados.

Clientes suportados.

  • libpq - Biblioteca C.
  • Objetos grandes.
  • Tratamento de erros
  • ECPG - SQL incorporado em C.
  • O esquema de informações.
  • Ligações em outras linguagens de programação (PHP, Perl, Python, Node.js).
  • Considerações especiais para estruturas assíncronas do Python (gevent, asyncio, Twisted, Tornado).
  • Suporte do PostgreSQL a ORM.

Triggers e procedures.

  • Triggers.
  • Procedures.
  • O sistema de regras.
  • Estendendo SQL.

Linguagens procedurais.

  • PL / pgSQL - Linguagem procedural SQL.
  • Linguagem procedural PL / Tcl - Tcl.
  • PL / Perl - linguagem procedural em Perl.
  • PL / Python - Linguagem procedural em Python.

Internal PostgreSQL.

  • Visão geral dos internos do PostgreSQL.
  • Catálogos do sistema.
  • Protocolo Frontend / Backend.
  • Convenções de codificação do PostgreSQL.
  • Suporte para idiomas nativos.
  • Escrevendo um manipulador de linguagem procedural.
  • Escrevendo um invólucro de dados externos.
  • Otimizador de consultas genéticas.
  • Armazenamento Físico do Banco de Dados.
  • Interface de back-end do BKI.
  • Como o planejador usa as estatísticas.

Essencial em Administração.

  • Gerenciamento do banco de dados.
  • Tablespaces.
  • Catálogo de dados.
  • Gerenciamento de usuários.
  • Segurança.
  • Write ahead alog (log de transações).
  • Monitoramento do servidor.
  • Rotinas de manutenção.
  • Atualização de versão.
  • Monitoramento do uso da CPU.
  • Registro dos comandos SQL.
  • Utilização de índices.
  • Otimização sintática.
  • Planos de execução.
  • pgAdmin3 e pgAdmin4.

Clusterização e replicação.

  • Cluster com PostgreSQL
  • Criação de servidores e slaves.
  • Replicação no PostgreSQL.
  • Replicando dados.

Backup e restore.

  • Características de backup.
  • Ferramentas de backup.
  • Conhecendo o pg_dump.
  • Restore de backup.
  • Vacuum.

Carga de dados e Integrações.

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento básico em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 40GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS ambos em 64Bits

Carga Horária

  • 32 Horas de duração.

Modalidade do Treinamento.

  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares do PostgreSQL e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Inscrições, Informações e Valores

[No form id or name provided!]


Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Diferenciais

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos PostgreSQL, e cursos PostgreSQL. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Instrutor

Leia mais...

Treinamento em Modelagem Dimensional

Sobre o Treinamento

Este treinamento é recomendado a técnicos, desenvolvedores, DBAs e gestores que buscam uma visão aprofundada do conceito de modelagem dimensional para construção de Data Warehouses em projetos de Business Intelligence. O mesmo não é focado em ferramentas e sim em toda a abrangência conceitual. Ao final do treinamento algumas atividades práticas são desenvolvidas sobre uma ferramenta para aplicar os conceitos adquiridos fortalecendo o conhecimento com a prática.

Calendário de turmas abertas

Treinamento somente no formato in-company.

Objetivo

Ministrar os conceitos sobre modelagem dimensional e sua aplicação na construção de um Data Warehouse.

Público Alvo

O Treinamento Modelagem Dimensional destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas,  que tenham conhecimento em Bancos de Dados.

Conteúdo Programático:

Introdução

  • Introdução a Business Intelligence.
  • Introdução a Modelagem Dimensional.
  • Introdução a Data Warehouse.
  • Introdução a DataMart.
  • MDA - Master Data Management.
  • MDA X DW.
  • ETL (Extract Transform e Load) e Data Integration.
  • OLAP - Online Analytical Processing.
  • OLTP - Online Transaction Processing.
  • OLTP X OLAP.
  • ROLAP, MOLAP, HOLAP, DOLAP e WOLAP.

Modelagem Dimensional

  • Modelo Dimensional Estrela (Star Schema) - Ralph Kimball.
  • Modelo Floco de Neves (Snowflaking) - Bill Inmon.
  • Star Schema x Snowflaking.
  • Drill-down e Roll-up.
  • Drill-across.
  • Drill-throught.

Data Warehouse

  • Data warehouse Híbrido.
  • Ciclo de Vida do Data warehouse.
  • Passos da modelagem dimensional.
  • Data warehouse - Processo de Negócio
  • Estimativa de tamanho de um data warehouse.

Data Warehouse - Dimensões.

  • Tabela Dimensionais.
  • Normalização de dimensões.
  • Surrogate Key.
  • Business Key.
  • Hierarquia.
  • Atributo.
  • Dimensão Tempo.
  • Dimensão Degenerada (Degenerate Dimension).
  • Dimensões – Tipos 1, 2, 3 e técnicas híbridas.
  • Slowly Changing Dimensions (SCD) - Tipo 1.
  • Slowly Changing Dimensions (SCD) - Tipo 2.
  • Dimensão Lixo (Junk Dimension).

Data Warehouse - Fato

  • Data warehouse - Granularidade.
  • Tabelas Fato.
  • Fato Agregada.
  • Surrogate Key.
  • Surrogate Keys Negativas.
  • Métricas e Medidas.
  • Grão.
  • Definição de índices.

Modelagem na prática.

  • Modelando um Caso Real (Prático).

Implementação com Ferramentas Open Source.

Assuntos Complementares

  • Data Staging.
  • Agile.
  • Levantamento de Requisitos de Projetos de BI.
  • Os 10 mandamentos de Ralph Kimball.
  • Principais ferramentas de BI do Mercado.

Pré-requisitos de Conhecimento

  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 4GB
  • Espaço em Disco: 5GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais : GNU/Linux, Windows ou MacOS.

Carga Horária

  • 24 Horas de Duração
  • 100% Presencial

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares da Pentaho e do PostgreSQL e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

 

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

 

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho, Modelagem Dimensional  e cursos sobre Data Warehouse. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Redis - Fundamental

Sobre o Treinamento

O treinamento fundamental Redis e voltado para administradores e desenvolvedores que querem conhecer este banco de dados ou armazenamento de estrutura de dados de chave-valor open source de memória. O Redis oferece um conjunto de estruturas versáteis de dados na memória que permite a fácil criação de várias aplicações personalizadas. Os principais casos de uso do Redis incluem cache, gerenciamento de sessões, PUB/SUB e classificações. É o armazenamento de key-value mais conhecido atualmente segundo o relatório da DB Engines (https://db-engines.com/en/ranking/key-value+store). Ele tem a licença BSD, é escrito em linguagem C otimizado e é compatível com várias linguagens de desenvolvimento. Redis é um acrônimo de REmote DIctionary Server (servidor de dicionário remoto). Por conta da sua velocidade e facilidade de uso, o Redis é uma escolha em alta demanda para aplicações web e móveis, como também de jogos, tecnologia de anúncios e IoT, que exigem o melhor desempenho do mercado.

Calendário de turmas abertas

Somente in Company.

Conteúdo Programático

Introdução

  • O que é um Redis.
  • Por que usar um banco de dados de memória?
  • O Projeto Redis.
  • Redis X ApsaraCache.
  • Licenciamento (Free Software X Open Source)
  • Caso de uso de Redis.
  • Empresas usando Redis no Mundo.
  • Empresas usando redis no Brasil.

Instalação e Configuração

  • Instalando o Redis.
  • Configurando o Redis.

Redis Security

  • Modelo de Segurança.
  • Segurança de rede.
  • Modo protegido
  • Autenticação.

Data Model

  • Tipos de Dados Primitivos
  • Abstrações.
  • Redis Keys.
  • Redis Strings
  • Redis Expires.
  • Redis Lists.
  • Redis Hashes.
  • Bitmaps.
  • Pub/Sub.
  • Módulos externos.

Desenvolvimento com Redis

  • Principais comandos.
  • Redis Lua scripting.
  • Pipeline.
  • Particionamento.
  • Otimização de memória.
  • Inserção em massa de dados.
  • Usando ETL Pentaho Data Integration para processo de inserção.
  • Distributed lock.
  • Secondary indexing.
  • Redis Lua scripts debugger.
  • Modules API.

Administração do Redis

  • Mecanismos de persistência disponíveis.
  • Precauções para evitar o desgaste do SSD.
  • Backup e restauração.
  • Ferramentas para explorar o conteúdo do banco de dados.
  • Ferramentas para análise de despejo.
  • Ajustando durabilidade X desempenho.
  • Alternando entre RDB e AOF.
  • Casos de uso para Redis sem disco.
  • Ajustáveis no nível do SO relevantes para Redis.
  • Monitorando o desempenho do Redis.
  • Backup and restore.

Alta Disponibilidade com Redis.

  • Instalar e configurar multi-Redis servers.
  • Standalone com várias instâncias.
  • Replicação Master/slave.
  • Cluster Redis HA com Sentinel
  • Redis sharding cluster.
  • Combinação de replicação Redis (com Sentinel) + capacidade de sharding
  • Monitoramento, backup/restauração e ajuste de desempenho para a instalação.

Carga Horária:

  • 24 Horas.
  • Presencial ou Ao Vivo Remotamente.

Pré-Requisitos:

  • Conhecimento básico em programação.
  • Conhecimento básico em banco de dados.

Requisitos:

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM : 8GB
  • Espaço em Disco: 50GB
  • Processador: Dual-core AMD 64, EM64T
  • Sistemas Operacionais: GNU/Linux, Windows, MacOS (64 bits).

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Redis e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Rediscursos Redis caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Consultoria em Alfresco ECM & BPM

O Software Alfresco Community.

O Software Alfresco tem uma convergência de ECM e BPM, ajudando a criar processos  mais  eficientes,  gerindo conteúdos no contexto dos dias atuais. Milhares de empresas já estão usando o Alfresco nos setores  financeiros, saúde, educacional, industrial  e setor público. A rede  global  de desenvolvedores  de código aberto  permite  uma evolução mais rápida que qualquer outra solução de ECM e BPM, você pode usá-lo para acelerar a sua  transformação digital. A Plataforma de ECM e BPM é totalmente integrada e simples no Alfresco, inteligente e seguro.   Alinhe as pessoas, conteúdo e processos para recuperar o controle de conteúdo de negócios críticos, reforçar a conformidade e otimizar os processos, tornando a colaboração fácil para funcionários, parceiros e clientes.

ECM - Gestão de Conteúdo Empresarial.

A plataforma Alfresco Enterprise Management Content (ECM) é uma plataforma de ECM aberta e  poderosa que é fácil de estender, personalizar e integrar com suas aplicações e processos existentes. A plataforma fornece acesso móvel fácil de conteúdo, proporciona ao usuário uma experiência de colaboração simples, mas rica e ajuda os clientes a maximizar o valor de seu conteúdo. É a plataforma ECM preferida para milhares de empresas no mundo.

Funcionalidades do Alfresco Content Service.

  • Gestão de Documentos Eletrônicos.
  • Pesquisas com Alta Performance (metadados e conteúdo).
  • Gerenciamento de conteúdo Web.
  • Suporte Multi-plataforma (Windows, Linux e Mac OS).
  • Suporte a Cloud e Virtualização.
  • Interoperabilidade e Integração (SOAP, CMIS,REST, IMAP).
  • 100% Web e Mobile.
  • Interface simples e colaborativa (Web 2.0).
  • Previews de Documentos.
  • Wikis, Blogs, Fóruns, Links.
  • Gestão de acesso por grupos ou usuários.
  • Gestão de Metadados, classificação.
  • Criação de metadados customizados.
  • Controle de Versão e Rastreabilidade.
  • Workflow e BPM Integrado com o Activiti BPM.

Funcionalidades do Alfresco Record Management - Alfresco Governance Services.

  • Tabela de temporalidade ou programações de retenção.
  • Plano de arquivamento.
  • Registros de arquivamento.
  • Auditoria.
  • Regras de automação.
  • Preservação Digital com padrão DoD 5015.2-STD.

Funcionalidades Estendidas -  Plugins.

  • Assinatura Digital.
  • Integração com Offices (OnlyOffice, MsOffice, Office 365,etc)
  • OCR.
  • Integração com Inteligência Artificial.
  • Integração com Machine Learning.
  • Compartilhamento de Documentos com data de Expiração.
  • Criptografia de Repositório.
  • Social Login (Linkedin, oauth2).

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.


Nosso Expertise com o Alfresco Community.

A Ambiente Livre tem uma verticalização especialista em BPM e ECM Open Source, e atua levando conhecimento as empresas sobre a plataformas de ECM e BMP Open Source Alfresco, através de projetos, consultorias, capacitações, eventos, cursos de alfresco, workshops e treinamentos de Alfresco.

Profissionais com 14 anos de experiência na Plataforma Alfresco.

56 projetos implementados.

154 empresas atendidas com Alfresco no Brasil e África.

Referência Nacional em Alfresco Community.

632 Alunos formados em treinamentos Alfresco.

Relacionamento comunitário e contribuidora de projeto relacionados ao Alfresco Community.

Know-how para ajudar sua equipe a implantar uma solução robusta de gestão de documentos na sua empresa.

Consultoria em Alfresco.

Em nossas consultorias realizamos os seguintes trabalhos

  • Consultoria na implantação do Alfresco Plataform
  • Consultoria na implantação com Alfresco Integrado ao Activiti BPM.
  • Consultoria em projetos Alfresco e Activiti.
  • Desenvolvimento e Customizações do Alfresco.
  • Desenvolvimento e Customizações do Activiti.
  • Consultoria e apoio ao cliente na definição de organização dos dados no Alfresco.
  • Consultoria na instalação e configuração do Ambiente Alfresco ECM e BPM.
  • Consultoria para definição de viabilidade de implantação On Premise ou Cloud Server.
  • Consultoria na engenharia de como os dados devem ser armazenados.
  • Consultoria na migração de Dados de ambiente legados.
  • Consultoria no desenvolvimento de regras, APIs de integração e modelos de Conteúdo(metadados).
  • Consultoria na implementação de workflows com uso da metodologia BPMN em BPMs (BPM Software).
  • Consultoria em Apache Solr.
  • Consultoria em Banco de dados Open Sources e Free Softwares, PostgreSQL e MySQL.

Todos os trabalhos tem acompanhamento interno da equipe do cliente para transferência de conhecimento e trabalho conjunto no entendimento do negócio do cliente.

Suporte em Alfresco.

Temos pacotes de horas mensais pré-contratados com custos reduzidos e SLA de atendimento para ambiente críticos.

  • Suporte em Alfresco Community.
  • Suporte em Alfresco Community com Activiti Community.

Ambientes onde podemos implementar as soluções de ECM e BPM.

  • On Premise - Crie sua própria infraestrutura sem depender de fornecedores de cloud e ficar subordinado ao faturamento em dólar.
  • Amazon Web Services - AWS.
  • Google Cloud Plataform - GCP.
  • Azure.

Tecnologias que somos especialistas.

Conheça nossos treinamentos na plataforma Alfresco.

Solicite uma reunião com nossos consultores para entender suas necessidades e sugerirmos o melhor caminho para sua empresa implementar uma solução completa para gestão de documentos e conteúdos. Entre em contato conosco.

 

Leia mais...

Treinamento Dashboards com Pentaho CTools

Sobre o Treinamento / Curso

Os CTools são um conjunto de componentes de código aberto projetados para ampliar as suas opções de personalização em Dashboards Pentaho, podem ser utilizados nas versões CE e EE do Pentaho, totalmente compatíveis com plataformas móveis. Este treinamento é recomendado a usuários e desenvolvedores que já conhecem o básico de Pentaho e querem aprimorar conhecimento no desenvolvimento de Dashboards usando as CTools para obter uma excelente identidade visual e UX refinado.

Modalidades do Treinamento:

  • Presencial - Abrimos turmas onde pode se inscrever, atuamos na maioria das capitais Brasileiras.
  • On Line Ao Vivo - Fazemos a transmissão Online do Treinamento.
  • In Company (Presencial ou Online) - Turmas Fechadas para empresas a custo único para até 15 Alunos.

Objetivo

Ministrar as principais funcionalidades das CTools para o desenvolvimento de Dashboards Avançados.

Público Alvo

O treinamento ou curso Pentaho Dashboards destina-se a profissionais analistas de BI, DBAs, Gestores de TI, desenvolvedores de sistemas, analistas de suporte que já tenham conhecimento básico de BI e querem focar no desenvolvimento de dashboards interativos com o Pentaho.

Conteúdo Programático:

Conceitual

  • A Plataforma Pentaho.
  • Conceitual sobre Dashboards.
  • Indicadores com KPI's e CPM.
  • Histórico das C*Tools.
  • Arquitetura das CTools.
  • O repositório com Apache Jackrabbit.

 Instalação das Ctools

  • Formas de instalação dos plugins CTools no Pentaho Server.
  • Versões estáveis.
  • Marketplace.

CDF - Community Dashboard Framework

  • O Framework CDF.
  • Ciclo de vida e Comportamento.
  • Visão geral sobre os componentes
  • Interação entre componentes
  • Integrando HTML4, HTML5 e CDF
  • Desenvolvendo dashboards com CDF

CDE - Community Dashboard Editor

  • Conceitos do CDE.
  • Desenvolvendo Layouts.
  • RequiresJS e Bootstrap.
  • Criando Templates personalizados de Dashboards.
  • Criando Dashboards a partir de Wizards.
  • Criando Dashboards com o CDE.
  • Interagindo com Datasources.
  • Manipulando a saída de um datasource.
  • Personalizações com jQuery e Javascript.
  • Adicionando Recursos  de Javascript e CSS.
  • Construindo Dashboards em Cascata.
  • Integrando Mapas e Dashboards.
  • Componentes de Filtros.
  • Elementos de Multi-seleção.
  • Outros Componentes.
  • Passagens de Parâmetros.
  • CDE Widgets
  • Estendendo o CDE.
  • Customizando Tooltips.

CDA - Community Data Access

  • Conceitos do CDA.
  • CDA e JSON.
  • Criando datasource com SQL.
  • Criando Datasources com MDX.
  • Criando um datasource com ETL.
  • Union no CDA.
  • Join no CDA.
  • Usando Web API CDA.
  • Web API CDA - doQuery.
  • Web API CDA - clearCache.
  • Web API CDA - listParameters
  • CDA cache.

CCC - Community Chart Components

  • Conceitos do CCC.
  • CCC2 – Versão 2.
  • Gráficos Protovis.
  • Pie Chart.
  • BarChart.
  • LineChart.
  • Stacked Line.
  • Stacked Area.
  • Heat Grid.
  • Bullet.
  • Waterfall.
  • Metric dot.
  • Customizando Gráficos com Extension Points.

CDV - Community Data Validation

  • Conceitos do CDV.
  • Criando validações.
  • Interagindo com mensagens de erro.
  • Interfaces externas ( e-mail, http).

CST - Community Startup Tabs

  • Conceitos do CST.
  • Instalando o CST.
  • Configurando usuários de Startup.
  • Configurando Grupos de Startup.
  • Startup de Dashboards,Cubos e Relatórios.

CDG - Community Data Generator

  • Conceitos do CDG.
  • Gerador de datawarehouse.
  • Gerando as tabela fato.
  • Gerando arquivos de Inserts para Fato.
  • Gerando Schema para Mondrian.

CGG - Community Graphics Generator

  • Conceitos do CGG.
  • Usando o CGG com Pentaho Report Designer.
  • Enviando Dashboards em PDF por e-mail via PRD.

Plugins e Bibliotecas Externas

  • Os Componentes HighCharts e Highstock
  • Instalando o Highcharts no Pentaho
  • Integrando o CDE a biblioteca de gráficos HightCharts.

Assuntos gerais

  • Alterando configurações de plugins.
  • Definição de acessos aos Dashboards.
  • Migrando CCC para CCC2.
  • Pentaho App Builder.
  • Embedding Dashboards.
  • Formas de Debug.
  • Protovis e D3js.

Pré-requisitos de Conhecimento

  • Conhecimento básico em lógica de programação.
  • Conhecimento em Front-end (JavaScript, CSS, HTML e JSON)
  • Conhecimento básico banco de dados.
  • Conhecimento em SQL ANSI.
  • Conhecimento Básico em Pentaho Data Integration
  • Conhecimento Básico em Mondrian e MDX.

Requisitos dos Alunos

  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware

  • Memória RAM: 8GB
  • Espaço em Disco: 20GB
  • Processador: 4 perocessadores
  • Sistemas Operacionais: GNU/Linux, Windows ou MacOS.
  • VirtualBox.

Carga Horária

  • 24 Horas de Duração

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Pentaho CE e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações (slides do treinamento) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações (Apenas nos presenciais).

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas.

Estamos localizados em Curitiba e atendemos em todo Brasil com treinamentos Pentaho e cursos Pentaho. caso necessite de um treinamento customizado com suas necessidades também elaboramos estes treinamentos. solicite proposta comercial.


A marca Pentaho é uma marca registrada pelos seus respectivos proprietários.

Inscrições, Informações e Valores.

[No form id or name provided!]


Instrutor

Leia mais...

Treinamento Apache Spark com Scala para Desenvolvedores

Sobre o Treinamento - Curso

O curso ou treinamento Apache Spark para desenvolvedores foi desenvolvido para que os alunos possam após o treinamento ser capaz de construir aplicações de Big Data usando uma das tecnologias mais modernas para processamento massivo o Spark, são abordados conhecimentos de arquitetura e ecossistemas fundamentais para a programação com a linguagem Scala e o Framework de código aberto Apache Spark. Entender os principais conceitos e fluxo de trabalho de implementação, dominar tópicos avançados de manipulação de RDDs, saber escrever scripts Spark com acesso a HDFS, Hive, HBase e interações com outros projetos do ecossistema Hadoop necessários para a análise de dados. Saber fazer uso de motores de processamento e desenvolver soluções que utilizam componentes em todo hub de dados da empresa. Ser capaz de construir aplicativos usando Apache Spark para processamento de stream combinando dados históricos com dados de streaming, através de análises interativas em tempo real.

Turmas Somente inCompany

Conteúdo Programático

Conceitual Big Data e Spark

  • Visão geral sobre Hadoop.
  • Características do Hadoop.
  • Sistema distribuído de arquivos.
  • Ecossistema Hadoop.
  • Quem usa o Hadoop.
  • Cases do uso Hadoop.
  • Uso de Hadware comum.
  • Distribuições do Hadoop (Cloudera X Hortonworks X Apache).
  • Free Software(GLP) X Open Source(BSD e Apache)

Introdução a Linguagem Scala

  • O que é Scala?
  • Apresentando Scala.
  • Instalando Scala.
  • Journey - Java para Scala
  • First Dive -  Interactive Scala.
  • Escrevendo scripts Scala - Compilando Programas Scala.
  • Basico em Scala.
  • Tipos Básicos Scala.
  • Definindo Funções.
  • IDE para Scala.
  • Scala Community.

Essencial em Scala

  • Imutabilidade em Scala - Semicolons.
  • Declaração método.
  • Literais.
  • Listas.
  • Tuplas.
  • Opções.
  • Maps.
  • Palavras reservadas.
  • Operadores.
  • Regras de precedência.
  • If Statements.
  • Scala Para Compreensão.
  • While Loops, Do-While Loops.
  • Operadores condicionais.
  • Pattern Matching.
  • Enumerações.

Traits e OOPs em Scala

  • Traits Intro - Traits as Mixins.
  • Stackable Traits.
  • Criando Traits e OOPS - Classes and Objetos Básicos.
  • Construtores Scala.
  • Nested Classes.
  • Visibility Rules.

Programação Funcional em Scala

  • O que é programação funcional?
  • Literais funcionais e Closures.
  • Recursão.
  • Tail Calls.
  • Estruturas de Dados Funcionais.
  • Parâmetros das Funções implícitas.
  • Chamada por nome.
  • Chamada por Valor.

Instalação do Apache Spark

  • Instalando o Spark.
  • Modos do Spark.
  • Standalone Cluster.

Primeiros passos em Apache Spark

  • Invocando Spark Shell.
  • Criando o Contexto Spark.
  • Carregando um arquivo no Shell.
  • Realizando algumas operações básicas em arquivos em Spark Shell.
  • Construindo um Projeto com sbt.
  • Executando o Projecto Spark com sbt.
  • Caching Overview, Persistência Distribuído.
  • Spark  Streaming Overview.
  • Exemplo: Streaming Word Count.

RDD - Resilient Distributed Dataset

  • Transformações no RDD.
  • Ações em RDD.
  • Carregando dados em RDD.
  • Salvando dados através RDD.
  • Key-Value Pair RDD.
  • MapReduce e Operações RDD Pair.
  • Integração Scala e Hadoop.
  • Arquivos de seqüência.
  • Usando Partitioner e seu impacto na melhoria do desempenho.

Formatos de Armazenamento

  • Trabalhando arquivos CSV com Spark.
  • Trabalhando arquivos JSON com Spark.
  • Trabalhando arquivos XML com Spark.
  • Parsing XML com Spark RDD.
  • Introdução ao Apache Kudu.
  • Trabalhando com arquivos Kudu.
  • Introdução ao Apache ORC.
  • Trabalhando com arquivos ORC.
  • Introdução ao Apache Parquet.
  • Trabalhando com arquivos Parquet.

Apache Streaming

  • Spark Streaming Transformations.
  • Streaming Windows Transformations.
  • Create Dataframes.
  • Save DataFrames.
  • Tables and DataFrames.
  • Event Stream Processing (ESP).
  • Complex Event Processing (CEP).

Apache Spark com SQL e Hadoop Hive.

  • Arquitetura Analyze Hive.
  • Arquitetura Spark SQL.
  • Analyze Spark SQL.
  • Context em Spark SQL.
  • Integrando Hive e Spark SQL.

Apache Spark com HBase

  • Arquitetura HBase.
  • Integrando Hive com HBase.
  • Spark-HBase Connector.
  • HBase com Spark Dataframe.
  • Integrando HBase e Spark SQL.
  • Lendo tabelas HBase com Spark.
  • Gravando em tabelas HBase com Spark.

Apache Spark e Pentaho

 

Carga Horária:

  • 32 Horas.

Pré-requisitos dos Participantes:

  • Conhecimento em Programação Java ou alguma linguagem com Orientação Objeto.
  • Noções de Big Data.
  • Conhecimento de Banco de Dados e SQL.
  • Conhecimento Básico de Linux.
  • Todos os participantes devem trazer um notebook para realizar as atividades práticas.
  • O Computador deve estar  com acesso de administrador para possibilitar instalações de aplicativos e acesso a Internet.
  • Para turmas In-Company não trabalhamos com limite de participantes para os treinamentos, orientamos que as turmas sejam de até 12 alunos para um melhor desempenho.

Requisitos mínimos de hardware:

  • Memória RAM : 8GB.
  • Espaço em Disco: 10GB.
  • Processador: Dual-core AMD 64, EM64T
  • deve estar ativo a Virtualização na BIOS do equipamento.
  • Sistemas Operacionais:Qualquer um com suporte e Virtualização com VirtualBox.
  • Oracle VM VirtualBox ( https://www.virtualbox.org/ ).
  • Obs. Equipamentos com menos que 8GB de Memória RAM ( Entre 5GB e 8GB) podem passar por lentidão nas atividades de uso de maquinas virtuais simultâneas no treinamento. Equipamentos com 4GB ou inferior não funcionarão para o treinamento.

Material

Serão disponibilizados os seguintes materiais aos alunos do treinamento:

  • Todos os softwares Apache Spark e Scala e acessórios na sua última versão estável.
  • Material próprio em Português do Brasil.
  • Apresentações ( slides do treinamento ) desenvolvidas pela equipe Ambiente Livre.
  • Apostilas digitais dos softwares desenvolvidas pela Ambiente Livre.
  • Apostilas com exercícios práticos desenvolvidos no treinamento.
  • Materiais e documentações complementares desenvolvido pela Comunidade Open Source Mundial.
  • Caneta, Pasta e Bloco de Anotações.

Metodologia

  • Todos os dias serão apresentados novos recursos e conceitos e avaliados através de exercícios práticos em todas as aulas

Diferenciais da Ambiente Livre.

A Ambiente Livre tem 19 anos no mercado, pioneirismo na oferta de consultoria, treinamentos, projetos e suporte em softwares de código-fonte aberto e software livre com um ecossistema voltado a negócios, e pode lhe ajudar a gerir complexidades, reduzir custos, permitindo adaptar e oferecer inovação inteligente necessária para o seu sucesso.

3.535 profissionais capacitados em 325 turmas ministradas.

Atuação global, 807 empresas impactadas em projetos, consultorias e treinamentos no Brasil, América Latina, Europa e África.

Networking entre profissionais, comunidades e startups de tecnologias Open Source e Free Software.

Treinamentos baseados em experiência de projetos e consultorias, 2.230 tutorais documentados, atualizados e disponibilizado de forma vitalícia em EAD.

Empresa 100% focada em Open Source e Free Software e contribuidora com equipe atuante nos projetos e eventos de código aberto e software livre.

Apoio na criação de 4 startups / Spin-off baseadas em soluções Open Source ou Free Software.

Inscrições, Informações e Valores

[No form id or name provided!]


Instrutor

Leia mais...

Log in