• Glossário Pentaho Business Intelligence

    Glossário com termos técnicos e abreviações utilizadas para assuntos relacionados a Pentaho Business Intelligence Open Source. 

    CE - Community Edition - Do inglês Community Edition, traduzido como Edição da Comunidade, referência usada para a versão desenvolvida em parceria com a comunidade open source. Sigla muito usada nas extensões dos arquivos de instalação ( ex.: pentaho-server-ce-8.3.0.0-371.zip);

    BI - Business Intelligence - Do termo inglês BI (Business Intelligence), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios;

    PDI - Pentaho Data Integration - Ferramenta contida na plataforma Pentaho, originalmente chamada de Kettle, responsável por integração de diversas fontes de dados, utilizado no Pentaho para construção do Data warehouse de uma aplicação de Business Intelligence. o seu principal executável é o software spoon;

    PRD -Pentaho Report Designer - Ferramenta que permite profissionais de BI criarem relatórios detalhados e de qualidade, além de ser altamente flexível com a manipulação de dados para a apresentação nos relatórios;

    PME -Pentaho Metadata Editor - A ferramenta simplifica a criação de relatórios de metadados, que são dados sobre dados. o PME mapeia a estrutura de dados físicos para um modelo de negócios mais lógicos;

    PSW - Pentaho Schema Workbench - Ferramenta que permite editar e criar modelos multidimensionais (Mondrian). Os profissionais de BI poderão criar modelos Mondrian graficamente ou defini-los codificando manualmente arquivos XML;

    PUC - Pentaho User Console - Interface do servidor Pentaho destinado a uso pelos usuários do sistema, com disponibilização de relatórios, dashboards e cubos divididos por soluções;

    Kettle -Ferramenta para integração de dados, faz parte da solução Pentaho, onde é responsável pelo processo de Extração, Transformação e Carga (ETL), renomeado pela Pentaho para Pentaho Data Integration ou simplesmente PDI;

    ETL -Do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart;

    PAT - Pentaho Analysis Tool - Um visualizador de cubos OLAP, seu nome foi renomeado para Saiku;

    Saiku - É um sistema modular de código aberto, oferecendo suíte de análise OLAP leve que permanece facilmente incorporável, extensível e configurável. O Saiku foi disponibilizado também como um plugin Pentaho para visualização de cubos Mondrian, anteriormente o Saiku se chamava PAT (Pentaho Analysis Tool);

    JPivot - JPivot é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. JPivot também suporta XMLA datasource acesso. Porém a mesma não esta sofrendo mais atualizações então recomenda-se migrar para Pivot4J ou Saiku.

    Pivot4J - Pivot4J é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP, fork do jPivot, e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. Pivot4J também suporta XMLA datasource acesso.

    Spoon - Ferramenta gráfica que se desenha e valida todo processo do Pentaho Data Integration (transformações e jobs);

    PAN - É a ferramenta de linha de comando Pentaho Data Integration para executar transformações a partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

    Kitchen - É a ferramenta que executa jobs à partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

    CTools -É um conjunto de ferramentas para construção de dashboards para a Suite Pentaho BI Open Source, utilizando tecnologias da web como JavaScript, CSS e HTML;

    CDF - Community Dashboard Framekork - Principal componente das CTools.

    Step  - Representa os passos dentro de uma transformação, onde podem ser agrupadas por Inputs, outputs e etc;

    Hop - Define o fluxo de dados entre dois passos chamados de steps (conexão).

    Data Lake - Termo criado pelo CTO (Chief Technical Officer) do Pentaho, James Dixon, para descrever um componente importante no universo da análise de dados. O data lake é um repositório que centraliza e armazena todos os tipos de dados gerados pela e para a empresa. Os dados são depositados ainda em estado bruto, sem o processamento, análise e até mesmo uma governança adequada.

    Este Glossário esta em constante atualização, o mesmo é utilizado nos materiais técnicos desenvolvidos pela Ambiente Livre em seus treinamento de Pentaho BI.

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

     

  • Conectando o Pentaho ao Banco de Dados Oracle

    Com o Pentaho podemos utilizar qualquer SGBD para armazenamento do nosso Data Warehouse ou para extração de dados e apresentação de relatórios. Dois itens são importantes para conectar o Pentaho ao SGBD da Oracle, primeiramente o Driver deve estar nos seus devidos locais de bibliotecas externas e a string de conexão estar configurada corretamente.

    Driver

    O Driver da Oracle não pode ser distribuído juntamente com aplicações sem um contrato de OEM, porém o mesmo pode ser baixado gratuitamente do site do fabricante : https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html

    Faça o download de acordo com sua versão, quando publicamos este artigo o mais atual era o ojdbc10.jar, que poderia ser usado para Oracle 9,10 e 10g, etc até a versão 19c.

    Para o Ambiente Server do Pentaho devemos adicionar o driver em duas localidades (diretórios):

    PUC - Pentaho User Console

    ../pentaho-server/tomcat/lib

    Este é o diretório padrão do Tomcat para bibliotecas externas.

    String de Conexão


    Cada SGBD tem a string de conexão com características diferentes , quando queremos usar uma conexão JNDI ou JDBC.

    A String de Conexão JDBC e JNDI do Oracle e composta por alguns parâmetros , seguem quais são e uma breve descrição sobre cada um deles:

    • Driver Class:  Classe Java responsável pela conexão -> Exemplo:  oracle.jdbc.driver.OracleDriver
    • Tipo da Conexão: JDBC
    • Nome do Banco de Dados: Nesta caso oracle:thin que é o Padrão para o Oracle DB.
    • Nome ou IP do Servidor: IP ou DNS onde se encontra o servidor do Banco de Dados Oracle, caso seu Pentaho e Oracle estejam na mesma máquina informar localhost.
    • Porta: Porta de conexão com o banco de Dados , A Porta padrão do Oracle é a 1531 , caso seu banco tenha outro padrão de portal altere conforme sua necessidade.
    • SID: Nome do SID ou Oracle System ID , especificado no arquivo tnsnames.ora, geralmente conforme abaixo porem dependendo da versão ou da customização de instalação pode ter outras referencias como XE etc.

    Exemplo de um tnsnames.ora com o SID chamado ORCL

    ORCL =
     (DESCRIPTION =
       (ADDRESS = (PROTOCOL = TCP)(HOST = myhost)(PORT = 1521))
       (CONNECT_DATA =
         (SID = ORCL)
       )
     )


    Após saber a funcionalidade de cada um dos parâmetros podemos criar a nossa string de conexão com o Oracle no Pentaho Server usando a seguinte linha de referência  e alterando seus valores:

    jdbc:oracle:thin:@:porta:SID


    Para um banco de Dados Oracle  no servidor oracle.ambientelivre.com.br na porta 1521 e no SID XE teríamos :

    jdbc:oracle:thin:@oracle.ambientelivre.com.br:1521:XE


    Esta string é solicitada no Pentaho User Console quando for criar novas conexões do Pentaho para o Oracle.

    Conexão com Oracle nas CTools - CDE


    O data source do grupo sqlover sqlJdbc do módulo CDE, pode ser configurado conforme parâmetros  do exemplo a seguir:

    • Name: Nome da query
    • Name: oracle.jdbc.driver.OracleDriver
    • URL: jdbc:oracle:thin:@host:porta:SID
    • user:utilizador
    • password:teste
    • Query: select sysdate from dual

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

     

  • Configurando uma versão personalizada do Java no Pentaho (multi versões)

    Quando utilizamos mais de uma versão do Pentaho ou múltiplos software dependentes de versões especificas do Java, muitas vezes configurar as variáreis globais (JAVA_HOME e PATH) do sistema, pode não ajudar muito no dia a dia e trabalho.  Aqui na Ambiente Livre por exemplo nos realizamos suporte em Pentahoconsultoria em Pentaho para cliente que tem múltiplas versões do Pentaho Business Intelligence, e acabamos precisando executar versões do Pentaho em nossa máquina deste o Pentaho 3.0 (sistema legados) até a versão atual Pentaho 9.0 e cada uma delas necessita de uma versão especifica do Java.

    Neste artigo vamos mostrar como pode configurar o Java nos scripts de inicialização das ferramenta da suíte Pentaho.

    Primeiramente verifique em seu equipamento o diretório onde esta instalado o Java , neste tutorial nos baseamos que o Java esta instalado  nos seguintes diretórios, no seu caso adapte a sua realidade:

    Linux:  /opt/java/jdk1.8.0_221
    Windows: C:/Programs Files/Java/jdk1.8.0_221

     

     

    Pentaho Data Integration

    Pentaho Server

    • Após instalar o Pentaho Server acesse a pasta bi-server (nas versões mais antigas) ou a pasta pentaho-server (nas versões mais recentes) e nela você vai encontrar o arquivo script chamado start-pentaho.sh e stop-pentaho.sh no Linux e start-petaho.bat e stop-pentaho.bat no Windows. Configure no inicio do arquivo as variáveis de ambiente Java de acordo com seu sistema Operacional:



      Linux (start-pentaho.sh e stop-pentaho.sh)
      JAVA_HOME=/opt/java/jdk1.8.0_221
      PATH=$JAVA_HOME/bin



      Windows (
      start-pentaho.bat e stop-pentaho.bat)
      JAVA_HOME=C:/Programs Files/Java/jdk1.8.0_221
      PATH=%JAVA_HOME%/bin


    Estas mesmas configurações podem ser aplicadas em todos scripts de inicialização das demais ferramentas da suíte Pentaho seguindo o mesmo principio. As mesmas mudam em tempo de execução as variáveis necessárias para executar o Pentaho.

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

  • Conhecendo o Pentaho BI Server - Arquitetura e infraestrutura

    O Pentaho BI Server é responsável por toda a camada servidora da plataforma do Pentaho, fornece a arquitetura e infraestrutura necessária para a construção de soluções para business intelligence (BI).

    Serviços essenciais do Pentaho BI Server:

    1. Autenticação;
    2. Logs;
    3. Auditoria;
    4. Serviços web;
    5. Motores de regras de negócio;
    6. Mecanismo para integração com relatórios;
    7. Mecanismo para integração de análises;
    8. Mecanismo para integração com dashboards;
    9. Mecanismo para integração com mineração de dados.

    Sua arquitetura é baseada em plug-in permitindo que a totalidade ou parte da plataforma seja incorporada a aplicações de terceiros.
    O Pentaho BI Server é composto por diversos outros aplicativos Open Source, entre eles:

    Apache Tomcat

     Servidor Web Java,  especialista em aplicações J2EE, que é a tecnologia ao qual o Pentaho Bi Server foi desenvolvido,  mais especificamente o tomcat é um contêiner de servlets. O Tomcat possui algumas características próprias de um servidor de aplicação, porém não pode ser considerado um servidor de aplicação por não preencher todos os requisitos necessários.
    http://tomcat.apache.org

    Apache Jackrabbit

     O repositório de conteúdo Apache Jackrabbit ™ é uma implementação totalmente em conformidade do API de Repositório de Conteúdo para Java Technology (JCR, especificado em JSR 170 e JSR 283). Um repositório de conteúdo é um armazenamento hierárquico com suporte para conteúdo estruturado e não estruturado, pesquisa de texto completo, versão, transações, observação e muito mais.
    https://jackrabbit.apache.org

     Spring Security

     Spring Security é uma aplicação para controle de autenticação forte e altamente personalizável, possui quadro de controle nos acessos.  É o padrão de fato para proteger aplicativos baseados em Spring. O mesmo se integra ao Tomcat e ao Pentaho BI Server para administração da segurança do servidor de aplicação.
    https://spring.io 

    Hibernate

     O Hibernate é um framework para o mapeamento objeto relacional escrito na linguagem Java, mas também é disponível em .Net como o nome NHibernate. No pentaho ele e responsável pelo mapeamento das bases de dados para o data warehouse.
    https://hibernate.org 

    Quartz

     O Quartz é um agendador (scheduler) open source, serviço de agendamento de tarefas que podem ser integrados ou utilizados ao longo de praticamente qualquer Java EE ou aplicativo Java SE.
    http://www.quartz-scheduler.org

    Hyper SQL (HSQLDB)

     O HSQLDB (do inglês Hyperthreaded Structured Query Language Database) é um servidor de banco de dados (SGBD), de código aberto, escrito totalmente na linguagem Java. Não é possível compará-lo, em termos de robustez e segurança com outros servidores SGBD, como Oracle ou Microsoft SQL Server, entretanto o HSQLDB é uma solução simples, que utiliza poucos recursos e que possui bom desempenho. Devido a essas características, ele é bastante utilizado em aplicações que são executadas em desktops e que necessitam interagir com uma camada de persistência através da linguagem SQL. A suíte office OpenOffice/ BrOffice, na sua versão 2.0, inclui o HSQLDB como engine de armazenamento de dados.
    http://hsqldb.org 

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

     

     

     

     

     

     

     

     

  • Embraer amplia uso da Plataforma Pentaho com Data Mining, Inteligência Artificial e Machine Learning

    Treinamento Pentaho Data Mining - Embraer
     O Pentaho Open Source Business Intelligence oferece poderosas ferramentas de análise de informações, monitoramento de indicadores e data mining, para que as organizações revolucionem o uso da informação gerencial, atingindo ganhos significativos de eficiência e eficácia.

    Em 2017, a equipe de TI da EMBRAER passou pela capacitação In Company, para a solução Pentaho BI Community Edition, com os treinamentos Pentaho Business Intelligence - Fundamental e Pentaho Business Intelligence - Avançado e Pentaho Data Integration - ETL Open Source. Em 2018 retornamos, para capacitar a equipe do setor de Qualidade, com o mesmo software e treinamentos, acrescentado o Pentaho Weka Data Mining, ou seja, uma capacitação conceitual e prática, de nível fundamental, sobre inteligência artificial e aprendizado de máquina, na aplicação de data mining e o uso dos algoritmos mais comuns. O enfoque também foi sobre o uso de Mineração de Dados, através da análise de redes sociais, dados abertos, informações de sensores ou informações empresariais de qualquer volume de dados com o uso do Weka.

    Treinamento Pentaho Fundamental e Avançado - Embraer

     

     A Ambiente Livre é especialista na plataforma Pentaho Business Intelligence e atende a todo o Brasil.

  • Instalando o Pentaho Data Integration - PDI - (Kettle) no Linux

     

     

    Pentaho Data Integration ou também chamado por seu codinome de projeto como Kettle e uma ferramenta de ETL (Extração, Transformação e Carga do inglês Extract, Transform and Load) que faz parte da plataforma Pentaho Business Intelligence e Analitycs. O mesmo pode ser instalado separadamente sem a necessidade de mais nenhum dos softwares adicional da plataforma de BI do Pentaho e usado exclusivamente para ETL.

    Pré-Requisitos.

    O único pré-requisito e ter um runtime Java (máquina virtual java ) instalada ou uma JDK (Kit de Desenvolvimento Java) , que pode ser de implementação aberta ( OpenJDK) ou fechada ( como a da Oracle) e pode ser realizado o download em https://www.oracle.com/technetwork/pt/java/javase/downloads/index.html. Cada versão do Pentaho Data Integration teremos uma versão do Java, no momento que escrevemos neste artigo usamos a versão 8.3 do Pentaho Data Integration que exige a versão 1.8 do Java ou superior.

     

    Curiosidade: Um apelido do Pentaho Data Integration usado pela maioria dos desenvolvedores e usuário do Pentaho Data Integration é a sigla PDI. 

    Download.

    Primeiramente acesse o repositório oficial do Pentaho no SourgeForge.net em http://sourceforge.net/projects/pentaho/files/ depois selecione a versão mais recente (ex. Pentaho 8.3) e depois acessar a divisão client-tools (onde estão as ferramentas clients), quando descrevemos este artigo a ultima versão era a 8.3, e o arquivo para realizar o download neste caso era o pdi-ce-8.3.0.0-371.zip (tanto para GNU/Linux como Windows o pacote de instalação e o mesmo o .zip)

    Instalando o Pentaho Data Integration.

    • Para instalar o Pentaho Data Integration no Linux crie o diretório em /opt/pentaho/client-tools  como o comando mkdir -p /opt/pentaho/client-tools (Está é uma recomendação e não obrigatoriedade, funciona em qualquer diretório).
    • Descompacte o pacote pdi-ce-x.xx.zip ( onde xx é sua versão ) no diretorio /opt/pentaho/client-tools será criado o diretório data-integration.
    • Pelo prompt shell acesse o diretório data-integration e de permissão a todos os arquivos com extensão .sh como o comando a seguir:

    chmod 755 *.sh

    • Pentaho Data Integration tem 4 componentes de software (spoon, carte, kitchen e pan) o responsável pela criação dos ETLs (Transformações e Jobs) de forma visual é o Spoon e para iniciar o Spoon do Pentaho Data Integration execute o comando:

    ./spoon.sh

    • Será aberto a PDI com a tela de inicialização abaixo e em seguida o ambiente de trabalho de Transformações e Jobs.

     

     

    Observações específicas de alguns sistemas operacionais.

    Pentaho Data Integration no Ubuntu 11.04.

    Quem estiver utilizando o Pentaho Data Integration com o Ubuntu 11.04 poder estar tendo o seguinte problema, ao tentar arrastar os steps para um transformação os mesmos não ficam na área de transformação. constatamos isso numa versão especifica do ubuntu ainda no PDI 5, conforme a imagem a seguir.

     

    Para corrigir esse problema siga os seguintes passos:

    • Remova as bibliotecas lib:
      overlay-scrollbar
      liboverlay-scrollbar-0.1-0
    • Para remover utilize o seguinte comando:

      sudo apt-get remove overlay-scrollbar liboverlay-scrollbar-0.1-0
    • Reinicie o Pentaho Data Integration


    Quer virar um especialista em Pentaho Data Integration? participe de nossas formações especificas do Pentaho Data Integration ou uma formação completa do Pentaho Business Intelligence e Analitycs.

     

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

  • Kimball University: As 10 Regras Essenciais para a Modelagem de Dados Dimensional

     

    Margy Ross – Presidente Kimball Group
    Maio de 2009, Intelligent Enterprise.com


    Tradução livre para a língua portuguesa por BI Experts ( Parceira em capacitação de Business Intelligence da Ambiente Livre) e revisado por Ambiente Livre.

    Um estudante participando de uma aula recente de modelagem dimensional do Kimball Group perguntou-me se existia uma lista de “recomendações Kimball” para a modelagem dimensional.

    Abstendo-se de utilizar uma terminologia religiosa, podemos dizer que as regras a seguir não devem ser quebradas e também existem algumas regras de ouro não tão severas a serem seguidas.


    Regra #1: Carregue dados detalhados para as estruturas dimensionais.

    Modelos dimensionais devem ser populados com um alicerce de dados detalhados para suportar os requisitos imprevisíveis de filtragem e agrupamento necessárias para atender as consultas dos usuários de negócios. Usuários normalmente não precisam visualizar um registro por vez, mas é impossível prever em quais diferentes maneiras eles pretendem ver os dados e acessar os detalhes. Se apenas dados agregados estiverem disponíveis, então você já deve ter se deparado com padrões de utilização dos dados que levaram os usuários a chegar a uma barreira intransponível quando eles querem acessar os detalhes. É claro, dados detalhados podem ser complementados por modelos dimensionais agregados que trazem vantagens de desempenho para consultas frequentes de dados sumarizados, mas os usuários de negócios não conseguem viver apenas dos dados agregados; eles precisam dos detalhes sangrentos para responder seus diferentes questionamentos.

    Regra #2: Estruture os modelos dimensionais em torno dos processos de negócios.

    Os processos de negócios são as atividades desenvolvidas por sua empresa; elas representam eventos mensuráveis, como registrar um pedido ou emitir uma fatura para um consumidor. Processos de negócios normalmente capturam ou geram métricas únicas de desempenho associadas a cada evento. Estas métricas traduzidas em fatos, com cada processo de negócios representado por uma única tabela fato.
    Além destas tabelas fato para cada processo, tabelas fato consolidadas às vezes são criadas para combinar métricas de vários processos em uma tabela fato com um nível padronizado de detalhe. Novamente, tabelas fato agregadas são um complemento para as tabelas fato detalhadas relacionadas aos processos de negócio, e não um substituto para elas.

    Regra #3: Tenha certeza de que cada tabela fato tenha uma dimensão de data associada.

    Os eventos mensuráveis descritos na Regra #2 sempre tem uma data de algum tipo associada a eles, sejam eles um balancete mensal ou uma transferência de dinheiro registrada em seu centésimo de segundo. Cada tabela fato deve ter ao menos uma chave estrangeira associada a uma tabela de dimensão data, cuja granularidade é cada único dia, com os atributos de calendário e suas características não padronizadas relacionadas a data do evento, como o período fiscal ou um indicador corporativo de feriado. Às vezes multiplas chaves estrangeiras de data estão ligadas em uma única tabela fato.

    Regra #4: Certifique-se que todos os fatos em uma única tabela fato estão na mesma granularidade ou nível de detalhe.

    Existem três granularidades fundamentais para classificar todas as tabelas fato:  transacional, snapshot periódico, ou snapshot acumulado. Independente de sua granularidade, cada métrica em uma tabela fato deve estar exatamente no mesmo nível de detalhe. Quando você mistura fatos representando muitos níveis de granularidade em uma mesma tabela fato, você estará criando confusão para os usuários de negócios e tornando as aplicações de BI vulneráveis a erros de valores ou outros resultados incorretos.

    Regra #5: Resolva relacionamentos muitos-para-muitos em tabelas fato.

    Como uma tabela fato guarda os resultados de um evento de um processo de negócios, existem inerentemente relacionamentos muitos-para-muitos (M:M) entre suas chaves estrangeiras, como diferentes produtos vendidos em diferentes lojas em diferentes dias. Estes campos de chaves estrangeiras nunca devem conter valores nulos. Às vezes dimensões podem ter valores diferentes para uma único métrica,
    como diferentes diagnósticos associados com uma consulta médica ou diferentes clientes de uma conta bancária. Nestes cados, seria irracional resolver as dimensões multi-valoradas diretamente na tabela fato, pois isto poderia violar a granularidade natural da métrica. Neste caso, podemos usar um relacionamento muitos-para-muitos, com uma tabela de relacionamento em conjunto com a tabela fato.

    Regra #6: Resolva os relacionamentos muitos-para-um nas tabelas de dimensões.

    Hierarquicamente, relacionamentos muitos-para-um (M:1) entre atributos são normalmente desnormalizados ou concentrados em uma única tabela dimensão. Caso você não queira passar a maior parte de sua carreira desenhando modelos entidade-relacionamento para sistemas transacionais, você precisa resistir a sua instintiva tendência a normalizar ou criar um snowflake com subdimensões menores para cada relacionamento M:1; desnormalização de dimensões é a regra do jogo na modelagem dimensional.
    É bastante comum ter muitos relacionamentos M:1 em uma única tabela dimensão.
    Relacionamentos um-para-um, como uma única descrição de produto associada a um código de produto, também são encontradas em uma tabela dimensão.
    Ocasionalmente relacionamentos muitos-para-um são resolvidos na tabela fato, como no caso de uma tabela de dimensão detalhada com milhões de linhas e com atributos frequentemente atualizados. Entretanto, usar a tabela fato para resolver relacionamentos M:1 deve ser feito de forma moderada.

    Regra #7: Gravar nomes de relatórios e valores de domínios de filtros em tabelas dimensão.

    Os códigos e, mais importante ainda, as decodificações e descrições associadas a eles usadas como nomes de colunas em relatórios e como filtros em consultas devem ser gravadas em tabelas dimensionais. Evite gravar campos com códigos criptográficos ou volumosos campos descritivos na própria tabela fato; da mesma forma, não grave apenas o código na tabela de dimensão e assuma que os usuários não precisam das decodificações descritivas ou que elas pódem ser resolvidas na aplicação de BI. Se a informação for um nome de linha/coluna ou um filtro de menu, então ela deve ser tratada como um atributo de dimensão.
    Embora tenhamos dito na Regra #5 que as chaves estrangeiras de tabelas fato nunca devem ser nulas, também é aconselhável evitar nulos em campos de atributos de tabelas dimensão trocando o valor nulo por um valor como "NA" (não se aplica) ou algum outro valor padrão, determinado pela administração de dados, para reduzir a confusão entre os usuários se possível.

    Regra #8: Tenha certeza de que as tabelas dimensão usam uma chave artificial.

    Chaves artificiais, sem significado e sequenciais (exceto para a dimensão data, onde chaves cronologicamente definidas e mais inteligíveis são aceitáveis) provém um grande número de benefícios operacionais; chaves menores significam menores tabelas fato, menores índices, e desempenho melhorado. Chaves artificiais são absolutamente necessárias no caso de você estar registrando as alterações dos atributos da dimensão com uma nova linha para cada mudança. Mesmo que seus usuários de negócios inicialmente não visualizem o valor de registrar as alterações nos atributos, usar chaves artificiais tornará uma futura alteração de política menos onerosa. As chaves artificiais também permitem mapear múltiplas chaves
    transacionais para um único perfil, adicionalmente protegendo contra atividades operacionais inesperadas, como a reutilização de um código de produto obsoleto ou a aquisição de uma outra empresa com suas próprias regras de codificação.

    Regra #9: Crie dimensões padronizadas para integrar os dados na empresa.

    Dimensões padronizadas (também conhecidas por dimensões comuns, principais, ou de referência) são essenciais para o data warehousing empresarial. Gerenciadas no sistema de ETL e então reutilizadas associadas a diversas tabelas fato; dimensões padronizadas trazem atributos descritivos consistentes para os modelos dimensionais e permitem a habilidade de navegar através dos dados integrados de diferentes
    processos de negócios. A matriz de negócios da empresa é o diagrama de arquitetura chave para representar os processos de negócios principais da organização e suas dimensões associadas. A reutilização das dimensões padronizadas finalmente diminui o tempo de desenvolvimento eliminando o desenho redundante e o esforço de desenvolvimento; entretanto, dimensões padronizadas requerem um compromisso e investimento em administração de dados e governância, desta forma você não precisa que cada pessoa concorde com cada uma das dimensões para atingir a conformidade.

    Regra #10: Avalie requisitos e realidade continuamente para desenvolver uma solução de DW/BI que seja aceita pelos usuários de negócios e suporte seu processo de tomada de decisões.

    Os responsáveis pela modelagem dimensional devem constantemente balancear os requisitos do usuários de negócios com as realidades inerentes aos dados de origem associados para desenvolver um modelo que possa ser implantado, e que, mais importante ainda; tenha uma boa chance de ser útil aos negócios. A avaliação dos requisitos-verus-realidades é parte da tarefa dos desenvolvedors de DW/BI, apesar de você estar focado na modelagem dimensional, estratégia do projeto, arquiteturas técnica/ETL/BI ou implantação/planejamento de manutenção.
    Se você tem lido nossos artigos na Intelligent Enterprise, os livros Toolkit ou as dicas de Arquitetura mensais, estas regras não devem ser novas para você, mas aqui você as tem consolidadas em um único local que póde ser utilizado como referência para quando você estiver envolvido no desenho ou revisão de seus modelos.

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

  • Livros e e-books sobre Pentaho e conceitual de business intelligence

    Nesta página selecionamos os principais livros que descrevem especificamente sobre a plataforma de BI Open Source: Pentaho Business Intelligence. Também listamos livros que auxiliam no processo de conhecimento sobre conceitos relacionados a Business Intelligence independente da ferramenta.

    Algumas Suites de BI proprietárias e livros genéricos possuem opções gratuitas para downloads, no qual podem ajudar no processo de aprendizado. Grande parte dessas informações foram utilizadas como base no desenvolvimento de nossos materiais didáticos nos Treinamentos em Pentaho Business Intelligence que oferecemos.
    Para os iniciantes recomendamos nesse primeiro momento a leitura de livros conceituais, pois ainda não sabem exatamente os propósitos de uma solução de Business Intelligence. Após adquirir  o conceito do BI sugerimos se aprofundar no aprendizado da Suite Pentaho.

    O assunto dos livros foram organizados em níveis e sub níveis de categoria, sejam conceituais ou de softwares. A lista é constantemente atualizada pela equipe da Ambiente Livre, fazendo com que os consultores sempre utilizem as melhores praticas em seus projetos.

    Livros Específicos Pentaho Business Intelligence

     

    Plataforma Pentaho

     

    Pentaho Solutions - Business Intelligence and Data Warehousing with Pentaho and MySQL

    Este guia prático escrito por dois grandes participantes da comunidade Pentaho. O livro cobre todos os componentes do Pentaho BI Suite. Você aprenderá a instalar, usar e manter o Pentaho - e encontrará muitas discussões de fundo que o atualizarão completamente sobre os conceitos de BI e Pentaho.
    Explica também como criar e carregar um data warehouse com o Pentaho Kettle para integração de dados / ETL, criar manualmente relatórios JFree (serviços de pentaho reporting) usando consultas SQL diretas, criar cubos Mondrian (serviços de análise Pentaho) e anexá-los ao navegador de cubos do Jpivot.

    Linguagem: Inglês
    Autores: Roland Bouman, Jos van Dongen
    648 páginas - Agosto 2009
    Editora: John Wiley Consumer 

    Pentaho na Prática: Segunda Edição 

    Este livro vai te ajudar a aprender a usar a Versão 4.8 da suite Pentaho para construir soluções de BI. É um livro principalmente técnico, mas você não precisa conhecer BI ou Pentaho para aproveitá-lo, pois ele avança paulatinamente, com minuciosas descrições.
    A segunda edição traz o mesmo conteúdo da primeira, cobrindo a Suite Pentaho 4.8 (não inclui CTools), agora com uma editoração de qualidade superior, resultando em um livro de melhor qualidade.

    Linguagem: Português
    Autores: de Salles, Fábio, Moreno de Souza, Caio, Cesar Domingos
    670 páginas - Julho 2016
    Formato: eBook Kindle 

    Learning Pentaho CTools

    Adquira sofisticação com os recursos do CTools e crie soluções de análise ricas e personalizadas usando o Pentaho.
    Se você é um desenvolvedor do CTools e gostaria de expandir seu conhecimento em criar painéis interativos, estruturas atraentes e visualizações de dados que podem fazer a diferença, esse é o livro certo para você.

    Linguagem: Inglês
    Autores: Miguel Gaspar
    367 páginas - Maio 2016
    Editora: Packt Publishing

      

    Kettle - Pentaho Data Integration

     

    Pentaho Data Integration Cookbook - Second Edition

    O Pentaho Data Integration Cookbook Second Edition é escrito em um formato de livro de receitas. Isso permite que você vá diretamente para o seu tópico de interesse ou siga os tópicos ao longo de um capítulo para obter um conhecimento profundo. O Cookbook de Integração Segunda Edição foi desenvolvido para desenvolvedores familiarizados com o básico do Kettle, mas que desejam avançar para o próximo nível. Também é voltado para usuários avançados que desejam aprender a usar os novos recursos do PDI, bem como práticas recomendadas para trabalhar com a Kettle.

    Linguagem: Inglês
    Autores: Alex Meadows, Adrián Sergio Pulvirenti, María Carina Roldán
    411 páginas - Dezembro 2013
    Editora: Packt Publishing 

    Pentaho Kettle Solutions- Building Open Source ETL Solutions with Pentaho Data Integration

    Guia completo para instalação, configuração e gerenciamento de Pentaho Kettle. Se você é um administrador de banco de dados ou desenvolvedor, primeiro você terá noções básicas de Kettle e como aplica-lo para criar soluções ETL, depois avançar para os conceitos especializados, tais como clustering, extensibilidade e modelos de dados vault. Aprenda a projetar e construir todas as fases de uma solução de ETL.

    Linguagem: Inglês
    Autores: Matt Casters, Roland Bouman, Jos van Dongen
    720 páginas - Setembro 2010
    Editora: Wiley 

    Learning Pentaho Data Integration 8 CE

    O Pentaho Data Integration (PDI) é um ambiente gráfico e intuitivo, com design de arrastar e soltar e poderosos recursos Extract-Tranform-Load (ETL). Este livro mostra e explica os novos recursos interativos do Spoon, a aparência renovada e os recursos mais recentes da ferramenta. Além disso você aprenderá no final do livro os principais pontos de como atender os requisitos de manipulação de dados.

    Linguagem: Inglês
    Autores: Maria Carina Roldan
    500 páginas - Dezembro 2017
    Editora: Packt Publishing 

    Pentaho Data Integration Quick Start Guide

    O Pentaho Data Integration (PDI) é um ambiente intuitivo e gráfico, repleto de design de arrastar e soltar e poderosos recursos Extract-Transform-Load (ETL). Dado seu poder e flexibilidade, as tentativas iniciais de usar a ferramenta Pentaho Data Integration podem ser difíceis ou confusas. Este livro é a solução ideal.

    Linguagem: Inglês
    Autores: Maria Carina Roldan
    178 páginas - Agosto 2018
    Editora: Packt Publishing 

    Pentaho Data Integration Beginner's Guide, Second Edition

    O livro mostra todos os aspectos do Pentaho Data Integration, fornecendo instruções sistemáticas em um estilo amigável, permitindo que você aprenda brincando com a ferramenta. Ao longo do livro são fornecidas inúmeras dicas e sugestões úteis para desenvolvedores de software, administradores de banco de dados, estudantes de TI e todos os envolvidos ou interessados no desenvolvimento de soluções ETL e/ou manipulação de dados. 

    Linguagem: Inglês
    Autores: María Carina Roldán
    502 páginas - Agosto 2013
    Editora:  Packt Publishing 

    Instant Pentaho Data Integration Kitchen

    Um guia prático com dicas fáceis de seguir, ajudando os desenvolvedores a coletar dados de fontes diferentes, como bancos de dados, arquivos e aplicativos, transformar os dados em um formato unificado, acessível e relevante para os usuários finais. Você aprenderá como usar as ferramentas de linha de comando com eficiência ou para aprofundar alguns aspectos das ferramentas para ajudá-lo a trabalhar melhor.

    Linguagem: Inglês
    Autores: Sergio Ramazzina
    59 páginas - Julho 2013
    Editora: Packt Publishing 

     

    Pentaho Report Designer

     

    Pentaho 5.0 Reporting by Example: Beginners Guide

    Um tutorial prático, incluindo vários exemplos de gerenciamento de aplicativos usando o Citrix XenApp 6.5. O Citrix XenApp Performance Essentials é destinado a arquitetos de TI e administradores de sistemas que trabalham com o Citrix XenApp, onde é necessário um guia prático e ágil para ajustar e otimizar o desempenho.

    Linguagem: Inglês
    Autores: Mariano Garcia Matti­o, Dario R. Bernabeu
    212 páginas - Agosto 2013
    Editora: Packt Publishing 

    Pentaho Reporting 3.5 for Java Developers

    Você que precisa instalar uma solução de relatório em seu ambiente e deseja aprender conceitos avançados no Pentaho Reporting, como sub-relatórios, guias cruzadas, configuração da fonte de dados e relatórios baseados em metadados, este é seu livro.
    Tutorial muito prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados em PDF, Excel ou HTML.

    Linguagem: Inglês
    Autores: Will Gorman
    260 páginas - Setembro 2009
    Editora: Packt Publishing 

    Pentaho 8 Reporting for Java Developers

    Crie os melhores relatórios e resolva problemas comuns com o mínimo de esforço dominando os recursos básicos e avançados do Pentaho 8 Reporting.
    Este tutorial prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados quando PDF, Excel, HTML, Texto, Arquivo Rich Text, XML e CSV.

    Linguagem: Inglês
    Autores: Francesco Corti
    351 páginas - Setembro 2017
    Editora: Packt Publishing

     

    Pentaho Business Analytics

     

    Pentaho Business Analytics Cookbook

    Este guia prático contém uma ampla variedade de dicas, levando você a todos os tópicos necessários para se familiarizar rapidamente com o Pentaho e ampliar seu conjunto de habilidades Pentaho. Se você está envolvido em atividades diárias usando a plataforma Pentaho Business Analytics, este é o livro para você. É um bom companheiro para você se familiarizar rapidamente com tudo o que precisa para aumentar sua produtividade com a plataforma. Assumimos familiaridade básica com Pentaho, design de data warehouse e SQL, HTML e XML.

    Linguagem: Inglês
    Autores: Sergio Ramazzina
    366 páginas - Junho 2014
    Editora: Packt Publishing 

    Pentaho Analytics for MongoDB

    Este é um guia fácil de seguir sobre os principais pontos de integração entre o Pentaho e o MongoDB. Empregando uma abordagem prática projetada para que o Pentaho seja configurado para conversar com o MongoDB desde o início, para que você obtenha resultados rápidos.
    Este livro é destinado a analistas de negócios, arquitetos de dados e desenvolvedores novos no Pentaho ou no MongoDB que desejam oferecer uma solução completa para armazenamento, processamento e visualização de dados.

    Linguagem: Inglês
    Autores: Bo Borland
    99 páginas - Fevereiro 2014
    Editora: Packt Publishing  

    Pentaho Analytics for MongoDB Cookbook

    Mais de 50 receitas para aprender a usar o Pentaho Analytics e o MongoDB para criar soluções poderosas de análise e relatório. Acelere o acesso a dados e maximize a produtividade com recursos exclusivos do Pentaho para MongoDB.
    O livro ensinará como explorar e visualizar seus dados no Pentaho BI Server usando o Pentaho Analyzer, criar painéis avançados com seus dados além de guiar você pelo Pentaho Data Integration e saber como ele funciona com o MongoDB. 

    Linguagem: Inglês
    Autores: Joel Latino, Harris Ward
    131 páginas - Setembro 2016
    Editora: Packt Publishing 

    Pentaho for Big Data Analytics

    O livro é um guia prático, cheio de exemplos passo a passo fáceis de seguir e implementar. É destinado para desenvolvedores, administradores de sistema e profissionais de inteligência de negócios que desejam aprender como obter mais de seus dados através do Pentaho.

    Linguagem: Inglês
    Autores: Manoj R Patil, Feris Thia
    70 páginas - Novembro 2013
    Editora: Packt Publishing

     

    Livros sobre Conceitos de Business Intelligence

     

    Business Intelligence Guidebook from Data Integration to Analytics

    Entre os conceitos de alto nível de inteligência de negócios e as instruções detalhadas para o uso das ferramentas dos fornecedores, encontra-se a camada essencial, ainda que pouco compreendida, da arquitetura, design e processo. Sem esse conhecimento, o Big Data é menosprezado - os projetos fracassam, estão atrasados ​​e ultrapassam o orçamento.
    Com as diretrizes práticas para a criação de soluções bem-sucedidas de BI, DW e integração de dados, você poderá projetar a arquitetura geral para os sistemas de inteligência de negócios em funcionamento com os aplicativos de armazenamento de dados e integração de dados. 

    Linguagem: Inglês
    Autores: Rick Sherman
    675 páginas - Novembro 2014
    Editora: Elsevier Science

    Successful Business Intelligence: Unlock the Value of BI & Big Data, Second Edition

    Expandido para cobrir o que há de mais recente em inteligência de negócios - big data, nuvem, celular, descoberta de dados visuais e memória -, este best-seller totalmente atualizado pelo guru de BI Cindi Howson fornece as técnicas mais modernas para explorar o BI com o maior ROI.
    O livro baseia-se em dados de pesquisas exclusivas e estudos de caso reais de histórias de sucesso de BI na Netflix, Medtronic, Macys.com, The Dow Chemical Company, Learning Circle e outras empresas para identificar as melhores práticas comprovadas de BI que podem ser usadas corretamente longe.
    Este guia prático é a chave para reunir inovações tecnológicas com as pessoas, processos e cultura de qualquer organização, a fim de alcançar uma estratégia de BI competitiva e lucrativa.

    Linguagem: Inglês
    Autores: Cindi Howson
    331 páginas - Outubro 2013
    Editora: Mcgraw-hill 

    Star Schema The Complete Reference

    Aprenda as melhores práticas de design dimensional. Esquema em estrela (Star Schema): a referência completa oferece uma cobertura detalhada dos princípios de design e seus fundamentos subjacentes. Organizado em torno dos conceitos de design e ilustrado com exemplos detalhados, este é um guia passo a passo para iniciantes e um recurso abrangente para especialistas.
    Este volume começa com os fundamentos dimensionais do projeto e mostra como eles se encaixam em diversas arquiteturas de data warehouse, incluindo as de W.H. Inmon e Ralph Kimball. Através de uma série de técnicas avançadas que ajudam a lidar com a complexidade do mundo real, maximizar o desempenho e se adaptar aos requisitos dos produtos de software de BI e ETL. 

    Linguagem: Inglês
    Autores: Christopher Adamson
    653 páginas - Julho 2010
    Editora: Mcgraw-hill 

    BI Como Deve Ser: O Guia Definitivo

    A obra BI Como deve ser uma novidade no ramo de Business Intelligence , pois toda a discussão é centrada na explicação direta e objetiva de como os profissionais de tecnologia ou os negócios podem iniciar o projeto de BI do zero.
    Diferenciação e linguagem clara, o livro BI Como Deve ser a busca por informação, como também por profissionais da área de negócios.

    Linguagem: Português
    Autores: Diego Elias Oliveira e Grimaldo Lopes de Oliveira
    Acesse: https://www.bicomodeveser.com.br

     

    Data Warehouse - Modelo Dimensional 

     

    The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling

    Modelagem dimensional tornou-se a abordagem mais amplamente aceite para os projetos de data warehouses. Uma biblioteca completa com técnicas de modelagem dimensional - a mais completa coleção já escrita. Expandida para cobrir as técnicas básicas e avançadas para otimizar os dados do projeto do data warehouse, guia clássico de Ralph Kimball.

    Linguagem: Inglês
    Autor: Ralph Kimball, Margy Ross
    464 páginas - Abril 2002
    Editora: Wiley

    Dimensional Modeling: In a Business Intelligence Environment

    Nesta publicação Redbooks IBM são demonstradas técnicas de modelagem de dados dimensional e tecnologia, voltados especificamente para business intelligence e data warehousing. Ajudar o leitor a compreender como projetar, manter e utilizar um modelo dimensional para armazenamento de dados que podem fornecer o acesso a dados e desempenho necessários para inteligência de negócios.

    Linguagem: Inglês
    Autores: Chuck Ballard, Daniel M. Farrell, Amit Gupta, Carlos Mazuela, Carlos Mazuela
    664 páginas - Março 2006 ( Atualizado maio 2008 )
    Editora: Redbooks

    Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247138.html?Open

     

    MDX - MultiDimensional eXpressions

     

    MDX Solutions: With Microsoft SQL Server Analysis Services

    Um tutorial prático sobre a construção e utilização de armazéns de dados multidimensionais. A linguagem de consulta SQL é usado para acessar dados em bancos de dados. Mas, para armazéns multidimensional (OLAP), a Microsoft desenvolveu MDX. A linguagem de consulta MDX se tornou essencial know-how para os desenvolvedores e usuários, seja para armazéns de dados ou para elaboração de orçamentos e sistemas de planejamento.

    Linguagem: Inglês
    Autor: George Spofford
    416 páginas - Julho 2001
    Editora: Wiley

    InfoSphere Warehouse: Cubing Services and Client Access Interfaces

    Este livro tem um excelente capítulo sobre MDX, os demais são aplicados a tecnologias IBM. InfoSphere Warehouse ™ .
    Panorama com objetivo principal de discutir e descrever as capacidades de um determinado componente do InfoSphere Warehouse: InfoSphere Warehouse Cubing.

    Linguagem: Inglês
    Autores: Chuck Ballard, Deepak Rangarao, Jimmy Tang, Philip Wittann, Zach Zakharian, Andy Perkins, Robert Frankus
    446 páginas - Dezembro 2008
    Editora: Redbooks 

    Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247582.html?Open 

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

  • Manipulando o Auto-Submit no Pentaho Report Designer

    O PRD (Pentaho Report Designer) tem por padrão um campo de Auto-Submit habilitado. Este campo habilita uma função que a cada alteração em um parâmetro de um relatório (também chamados de filtros) o mesmo envia a execução de consulta a fonte de dados, ficando muito ruim seu uso quando a consulta tem uma certa demora a ser executada ou ainda quando temos muitos campos para serem selecionados antes de querermos visualizar o resultado. Para resolver esta situação podemos mudar seu comportamento padrão desabilitando esta função, sendo que o usuário vai informar primeiramente os campos de filtros (parâmetros) e depois clicar em View Report para execução do relatório.

    1. No Pentaho Report Designer abra seu arquivo de relatório (arquivo .prpt) e acesse a ABA Structure e depois clique em Master Page, conforme figura a seguir:

    2. Com a Master Page selecionada clique em Attributes e na separação chamada parameter teremos dois atributos que mudam o comportamento do auto-submit, o auto-submit e auto-submit-default conforme a seguir.

    3. O atributo Auto-submit-default tem 3 opções, pode estar sem definição, True ou False, sendo que se você alterá-lo para False e publique seu relatório, o mesmo ficará desmarcado por padrão quando publicado no Pentaho Server exibindo o checkbox porém sem estar assinalado conforme a seguir.

    4. O atributo Auto-submit tem 3 opções, pode estar sem definição, True ou False, caso esteja como False, após publicar o relatório você desabilitará a exibição do checkbox auto-submit da tela do Pentaho Server no momento de impressão do relatório. Não deixando opcional está função ao seu usuário.

    5. Com estas duas propriedades podemos alterar o comportamento do Auto-Submit para nossos usuários, adaptando conforme a necessidade de cada ambiente.

     

    Sobre a Ambiente Livre

    Ambiente LivreAmbiente Livre é especialista em Open Source e Free Software e tem uma divisão especialista em Business Intelligence e Business Analytics. Fornece implantação, integração, suporte, consultoria e treinamento Business Intelligence com a plataforma Pentaho Business Intelligence e Analytics a mais de 10 anos.

    Já capacitou centenas de empresas para trabalhar com Business Intelligence, ECM, BPM, CRM e Big Data e usa uma metodologia própria de ensino.

    Conheça também as divisões de ECM e BPMCRM e CMS e Big Data e Data Science.

     

     

Log in