Pentaho & Hadoop

Die Integration von Hadoop-Daten ist eine Herausforderung für die IT-Abteilungen. Sie müssen sich neues Fachwissen aneignen, die richtigen Entwickler finden und Hadoop mit den vorhandenen Betriebssystemen und Data Warehouses effektiv verknüpfen. 

Pentahos intuitive und leistungsstarke Plattform ist auf die Bewältigung dieser Herausforderungen ausgerichtet. Die Vorteile beschränken sich nicht nur auf verbesserte Produktivität und schnellere Amortisierung, sondern Pentaho unterstützt Teams auch bei der Verwaltung komplexer Datentransformationen und ermöglicht, Hadoop als Teil einer vollständigen Datenpipeline einzubinden und die Bereitstellung gesteuerter Analysen zu gewährleisten. 

Einfache, leistungsstarke und steuerbare Integration von Hadoop-Daten

Die Anbieterlandschaft für Big Data Integration-Lösungen ist zersplittert. Ältere Tools liefern nicht die für die vollständige Implementierung erforderliche Kontrolle und Leistung. Bei Ansätzen zur Codegenerierung ist der Einstieg schwierig, sodass häufig auf manuelle Programmierung zurückgegriffen werden muss. Pentaho dagegen bietet Lösungsarchitekten, Datenanalysten oder Hadoop-Administratoren die ideale Kombination aus Flexibilität und Leistung zur erfolgreichen Umsetzung von Projekten. Zu den Vorteilen zählen:

  • intuitive grafische Benutzeroberfläche zum Integrieren und Kombinieren von Hadoop-Daten mit praktisch jeder anderen Quelle, unter anderen relationale Datenbanken, NoSQL-Speicher und Unternehmensanwendungen
  • fünfzehnmal schnellerer Entwurf von MapReduce-Aufträgen im Vergleich zu manuellen Programmierungsmethoden
  • systemeigene MapReduce-Integration, die die Ausführung komplexer Transformations- und Kombinationslogik im Cluster und gleichzeitig die lineare Skalierung mit Hadoop ermöglicht 
  • tiefgehende Integration mit dem Hadoop-Ökosystem, das echte Kontrolle über YARN-Aufträge, die Ausführung von Spark, Oozie, Sqoop und anderen Tools liefert 
  • Automatisierung zur beschleunigten Aufnahme und Integration großer Mengen an verschiedenen, sich ändernden Datenquellen in Hadoop
  • Unterstützung führender Hadoop-Distributionen, darunter Cloudera, Hortonworks, Amazon EMR und MapR, bei maximaler Portabilität von Aufträgen und Transformationen zwischen Hadoop-Plattformen

On-Demand-Analysen von Big Data und Produktionsbereitschaft

Hadoop verspricht zwar in erster Linie die Reduzierung von Infrastrukturkomponenten und Leistungsverbesserungen. Doch der größere Vorteil ergibt sich aus den Erkenntnissen, mit denen Kundenerlebnisse erzeugt und Umsatzwachstum erzielt werden können. Dies wird nur durch die Beherrschung eines End-to-End-Prozesses erreicht, bei dem Rohdaten in analytische Erkenntnisse umgewandelt werden. Pentaho arbeitet gemeinsam mit Partnerunternehmen an der Verwaltung dieser Big Data-Pipeline und bereitet damit den Weg für bessere Geschäftsergebnisse. Hierzu gehören: 

  • ein Lösungsansatz zur Bereitstellung von On-Demand-Datenbeständen von Hadoop, darunter gesteuerte Selfservice-Analysen für umfassende Anwendergruppen im Produktionsumfeld 
  • ein komplettes Sortiment an Visualisierungen, Berichten sowie Ad-hoc-Analysen, einschließlich Verbindungen zu Hive, Impala und Analysedatenbanken wie Vertica und Redshift
  • Analysen, die in wichtige Geschäftsanwendungen nahtlos eingebettet werden können und somit die gewinnbringende Nutzung von Daten bei Kunden und Partnern unterstützen 
  • die Fähigkeit zur Integration prognostischer Modelle von R und Weka in den Datenfluss, was zu umsetzbaren Ergebnissen führt und gleichzeitig den Datenvorbereitungsaufwand auf ein Minimum reduziert 

Ein erfahrener Partner mit bewährten Hadoop-Implementierungen 

Technologie bringt Sie nur bis zu einem gewissen Punkt. Die wichtigste Rolle für ein erfolgreiches Hadoop-Projekt spielen jedoch Mitarbeiter, Erfahrung und bewährte Methoden. Seit über fünf Jahren arbeitet Pentaho direkt mit Kunden zusammen, um Rendite aus Big Data zu erzielen. Dies hat nicht nur zu beispiellosen Geschäftserfolgen bei diesen Kunden geführt, sondern auch die internen Fachkenntnisse und Erfahrungen in Bezug auf die Integration und Analyse von Hadoop-Daten auf ein bislang unerreichtes Niveau gebracht: 

  • Blaupausen für Big Data-Konzepte, mit denen Kunden ihre Infrastruktur optimieren, Hadoop-Daten für Selfservice-Analysen verfeinern, eine vollständige Kundenübersicht erstellen und Analysen als Service gewinnbringend einsetzen konnten 
  • erfolgreiche Big Data-Projekte in vielen Branchen, darunter Betrugserkennung im Finanzdienstleistungssektor für die FINRA, Infrastrukturoptimierung für NetApp, Datenmonetarisierung in der Telekommunikationsbranche bei Ruckus Wireless sowie Datenintegration für Kundenempfehlungen bei RichRelevance 
  • ein engagiertes Team aus Fachkräften für Hadoop-Services sowie Dienstleistungsangebote für jede Phase des gesamten Implementierungsprozesses, einschließlich Big Data-Schulungen, technisches Kundenmanagement, Lösungsbereitstellung und technische Services

Sie möchten mehr über Big Data und Pentaho erfahren? Weitere Informationen finden Sie in diesem einführenden Lernprogramm.