background preloader

Pentaho

Facebook Twitter

Pentaho. Comme IBM, Pentaho choisit Hadoop pour l'analyse des gros volumes de données - Actualités Décisionnel. La suite Pentaho BI va progressivement supporter le projet Apache Hadoop. La brique ETL sera la première à être livrée. Suivront les fonctions de reporting, de tableaux de bord et d'analyse. L'éditeur de logiciels décisionnels en Open Source Pentaho a indiqué qu'il prévoyait de livrer une suite décisionnelle complète s'appuyant sur le projet Apache Hadoop. IBM a lui-même confirmé la semaine dernière qu'il préparait un portefeuille de solutions et de services, Infosphere BigInsights, basé sur ce même projet Open Source conçu pour le traitement et l'analyse de très gros volumes de données.

Les capacités apportées par Hadoop sont destinées à prendre en charge les flux de données considérables générés par exemple par les transactions bancaires et dans le secteur de l'assurance (avec l'objectif de détecter les fraudes), par les interactions sur Internet (sur les réseaux sociaux notamment) ou encore traités par les centres d'appels. Open Source Business Intelligence - Open Source Reporting, ETL & Data Integration and OLAP.