PLAN D’ACTION POUR UN PROJET BIG DATA REUSSI:

Optimiser l'entrepôt de données

Allégez les contraintes qui pèsent sur l'entrepôt de données en confiant à Hadoop les données les moins utilisées et les scénarios de transformation correspondants, sans programmation, sans scripts dépassés et sans les limitations des produits ETL.

Optimize the Data Warehouse

HADOOP : SIMPLE, ACCESSIBLE ET 15X PLUS RAPIDE

Pentaho simplifie le déchargement vers Hadoop et divise par 15 les temps de développement et de déploiement par rapport à une programmation traditionnelle. Une gamme complète d'outils d'intégration visuels évite une programmation manuelle en SQL ou l'exécution de tâches Java MapReduce.

RÉDUISEZ LES COÛTS DES DONNÉES ET AUGMENTEZ LES PERFORMANCES ANALYTIQUES

  • Intégration des Big Data graphique et intuitive, sans aucune programmation.
  • Accès à toutes les sources de données, peu importe leur nature (opérationnelle, relationnelle ou NoSQL).
  • Prise en charge des principales distributions Hadoop avec le module Adaptive Big Data layer.
  • Performances de traitement supérieures en cas d'exécution de Pentaho MapReduce dans un cluster.
  • 100 % Java, rapidité et efficacité.

La plateforme Pentaho Business Analytics constitue un moyen rapide et économique de tirer immédiatement profit des données grâce à l'intégration de fonctions de rapports, de tableaux de bord, de fonctions d'exploration et d'analyses prédictives.

EXEMPLE DE CONFIGURATION AU SEIN D’UN ENVIRONNEMENT INFORMATIQUE :

  • Cette entreprise exploite des données de sources diverses, dont des systèmes CRM et ERP.
  • Un cluster Hadoop a été mis en place pour alléger l'entrepôt de données existant des données les moins utilisées.
  • L’entreprise réduit les coûts de stockage, optimise la performance des requêtes et accélère l’accès au data mart analytiques.

RÉSULTATS

  • Économies d’effectif et productivité : Grâce à son interface utilisateur visuelle MapReduce et à l'intégration des Big Data, Pentaho permet aux développeurs de transférer les données entre l'entrepôt de données et Hadoop sans aucune programmation.
  • Valeur ajoutée : D'après certaines comparaisons, la durée de développement MapReduce est divisée par 15 par rapport à un codage manuel.
  • Exécution plus rapide des tâches : Pentaho MapReduce s'exécute dans un cluster et non dans des outils de script générant du code.

OBJECTIF BIG DATA D’UNE ENTTEPRISE LEADER DU STOCKAGE EN RÉSEAU:

Simplifier la gestion des données machine pour optimiser la performance produit et la réussite des clients

  • Tirer avantageusement parti des données machine des équipements de stockage pour l'application client
  • Prédire la défaillance des équipements
  • Optimiser la performance du produit

EXEMPLE D’ARCHITECTURE :

AVANTAGES DE PENTAHO :

  • Outils ETL et analytiques faciles d'utilisation pour les sources de données Hadoop, Hbase et Oracle
  • Division par 15 du coût des données
  • Meilleur respect des contrats de niveau de service client