Pentaho 7.0

Une expérience des données visuelle
à n’importe quelle étape du pipeline

Watch Video Free Trial

Pentaho 7

INTÉGRATION DE L'ANALYTIQUE À LA PRÉPARATION DES DONNÉES

Et si vous pouviez accéder à des données analytiques n'importe où dans le pipeline sans attendre que les données soient préparées et exportées dans un outil d'analyse ? Tirez profit de la seule plateforme du marché à intégrer l'analytique à la préparation des données, éliminant ainsi la nécessité de jongler entre différents outils, et obtenez plus rapidement des informations exploitables.

  • Intégration de l'analytique à la préparation des données: Les développeurs ETL et l'équipe chargée de la préparation des données peuvent vérifier ponctuellement l'efficacité de l'analytique en accédant aux tableaux, graphiques, visualisations ou analyses ad hoc à n'importe quelle étape du processus de préparation de données. 
  • Partage de l'analytique pendant la préparation des données: Publiez les sources de données pendant le processus de préparation. La possibilité de partager immédiatement les sources de données permet au service informatique de mieux collaborer avec les métiers afin d'élaborer une méthode plus rapide et moins itérative pour générer des données analytiques pertinentes.

NOUVELLES CAPACITÉS SPARK

Les entreprises utilisent Spark pour accélérer et simplifier le traitement et l'analyse des Big Data, mais la pénurie de personnel qualifié empêche de tirer pleinement profit de Spark dans un environnement de production. Ces nouveautés permettent à un plus grand nombre d'utilisateurs d'exploiter Spark, tout en rendant Spark opérationnel dans le cadre de processus métier basés sur des données plus vastes.

  • Accès à SQL sur Spark: Accéder à SQL sur Spark en tant que source de données de Pentaho Data Integration permet aux développeurs ETL et aux analystes de données de facilement interroger des données Spark et de les intégrer à d'autres données pour la préparation et l'analyse des données.
  • Orchestration de Spark étendue: Coordonnez et planifiez visuellement des applications Spark qui utilisent une plus grande diversité de bibliothèques, notamment Spark Streaming et Spark SQL, ainsi que SparkML et Spark MLlib pour l'apprentissage automatique. En outre, Pentaho prend désormais en charge l'orchestration des applications Spark écrites en langage Python.

SÉCURITÉ HADOOP ÉTENDUE

Les outils de développement visuels pour Big Data doivent être conformes aux environnements de sécurité qui protègent les ressources de données clés des entreprises contre les intrusions. Facilitez la gouvernance des Big Data et réduisez les risques grâce à l'intégration étendue de Pentaho avec les technologies de sécurité Hadoop.

  • Intégration étendue de Kerberos: Donnez à un plus grand nombre d'utilisateurs la possibilité d'intégrer des Big Data en toute sécurité grâce à des fonctionnalités améliorées qui permettent à plusieurs utilisateurs Pentaho d'accéder à des clusters Cloudera sous Kerberos en tant qu'utilisateurs Hadoop.
  • Compatibilité avec Sentry: PDI fonctionne avec Sentry pour fournir, selon les responsabilités, un accès à des jeux de données Hadoop spécifiques, permettant ainsi un suivi précis et l'application des règles de l'entreprise en matière d'autorisation d'accès aux données.

FONCTIONS ÉTENDUES D'INJECTION DES MÉTADONNÉES

Les équipes informatiques passent de nombreuses heures à coder des tâches d'ingestion et de traitement de données afin d'intégrer une grande variété de sources Big Data. Augmentez la productivité des équipes informatiques chargées de créer des processus de migration et d'intégration de données en automatisant l'injection de métadonnées dans des pipelines de Big Data à grande échelle.

  • Injection de métadonnées étendue à davantage d'étapes: Permettez à votre équipe informatique de générer automatiquement une plus grande variété de transformations de données au moment de l'exécution grâce à la prise en charge de l'injection de métadonnées dans plus de 30 étapes supplémentaires via PDI. Ces nouvelles étapes qui prennent en charge l'injection de données concernent notamment les opérations liées à Hadoop, Hbase, JSON, XML, Vertica, Greenplum et à d'autres sources de Big Data.

AUTRES INNOVATIONS

Pentaho 7.0 offre d'autres innovations qui permettent de pérenniser votre investissement et de prendre en charge des Big Data croisées.

  • Prise en charge de Kafka: Envoyez et recevez des données via Kafka, l'une des technologies de file d'attente de messagerie les plus utilisées dans les cas d'usage Big Data et IoT.
  • Prise en charge d'Avro et Parquet: Générez des fichiers Avro et Parquet, deux formats souvent utilisés pour stocker des données dans Hadoop dans les cas d'usage d'intégration de Big Data.
  • Configuration, déploiement et administration simplifiés: Configurez, déployez et gérez plus facilement et rapidement un serveur unifié d’intégration et d'analyse de données pour une prise en charge des environnements de développement et de production Pentaho.