Fünf Verbesserungen von Pentaho Data Integration – inklusive Spark SQL – für einen schnelleren Nutzen von zukunftssicheren Big Data-Projekten

Neue Spark- und Kafka-Unterstützung, Verbesserungen bei der Metadaten-Einspeisung und bei der Hadoop-Sicherheit reduzieren die Komplexität von Big Data

September 26, 2016, New York City (Strata + Hadoop World, Standnr. 533) —

Pentaho, ein Unternehmen der Hitachi Group, hat heute fünf neue Verbesserungen angekündigt, mit denen Unternehmen die Komplexität von Big Data verringern, Fachkräftemangel überwinden und Integrationsherausforderungen bewältigen können. Die Neuerungen machen die manuelle Programmierung überflüssig, bieten erweiterte Sicherheit und Unterstützung von Big Data Technologien, sodass IT-Teams einen schnelleren Nutzen aus Big Data-Projekten mit bestehenden Ressourcen erzielen können.

1. Mehr Apache Spark Integration

Pentaho hat die bestehende Spark-Integration seiner Plattform ausgeweitet und bringt Kunden, die diese populäre Technologie nutzen möchten, folgende Vorteile:

  • Weniger Spezialkenntnisse für den Umgang mit Spark: Datenanalysten können jetzt SQL in Spark nutzen, um via Pentaho Data Integration (PDI) Spark-Daten abzufragen und zu verarbeiten.
  • Einfache und flexible Koordination, Terminierung, Wiederverwendung und Verwaltung von Spark-Anwendungen in Daten-Pipelines: Die erweiterte PDI-Orchestrierung für Spark Streaming, Spark SQL und maschinelle Spark-Lerntechniken (Spark MLlib und Spark ML) bietet Support für die wachsende Zahl der Entwickler, die mehrere Spark-Bibliotheken nutzen.
  • Integration und effiziente Nutzung von Spark-Anwendungen in datengesteuerten Datenprozessen: PDI Orchestrierung von mit Python erstellten Spark-Anwendungen bietet Vorteile für Entwickler, die diese beliebte Programmiersprache nutzen.

2. Erweiterte Funktionen für Metadaten-Einspeisung

Pentahos einzigartige Funktionen für die Metadaten-Einspeisung ermöglichen die Beschleunigung des Onboarding-Prozess von vielen, sich stetig ändernden Datenquellen, und erlauben Dateningenieuren, PDI Transformationen während der Laufzeit dynamisch zu generieren anstatt der üblichen manuellen Programmierung für jede Datenquelle. Die Kosten werden so um ein Zehnfaches gesenkt. Pentaho erweitert die bestehenden Funktionen für die Metadaten-Einspeisung um 30 kompatible PDI-Transformationsschritte. Dazu gehören Abläufe in Hadoop, Hbase, JSON, XML, Vertica, Greenplum und anderen Big Data-Quellen.

3. Erweiterte Einbindung von Datensicherheitsanwendungen für Hadoop

Die Sicherheit von Big Data-Umgebungen kann angesichts sich stetig wandelnden Authentifizierungs- und Zugriffstechnologien schwierig sein. Pentaho erweitert die bestehende Integration von Datensicherheitsanwendungen für Hadoop, um verbesserte Big Data Governance, die ungewollte Zugriffe auf Cluster verhindert, zu bieten. Dazu gehören eine erweiterte Kerberos-Integration für eine sichere Authentifizierung in Multi-User-Umgebungen und eine Apache Sentry-Integration, um Regeln für den Zugriff auf bestimmte Hadoop-Datensätze durchzusetzen.

4. Unterstützung von Apache Kafka

Apache Kafka, konzipiert für den Austausch großer Datenmengen, wie sie z.B. bei Big Data und IoT-Lösungen anfallen, erfreut sich wachsender Beliebtheit. Pentaho bietet Unternehmen jetzt Unterstützung für das Senden und Empfangen von Daten aus Kafka, um durchgehende Datenverarbeitungsanwendungsfälle in PDI zu erleichtern.

5. Erweiterte Unterstützung populärer Hadoop-Datenformate

Pentaho unterstützt nun die Ausgabe von Dateien in Avro- und Parquet-Formaten in PDI. Beide Formate werden häufig für die Datenspeicherung in Hadoop bei Onboarding-Anwendungsfällen genutzt.

„Die aktuellen Erweiterungen spiegeln Pentahos Mission wider, Big Data-Projekte zügig funktionsfähig zu machen und durch den Ausbau und die Unterstützung von analytischen Daten-Pipelines einen schnelleren Nutzen zu erzielen“, erklärt Donna Prlich, Senior Vice President Product Management, Product Marketing & Solutions bei Pentaho. „Unternehmen können sich ganz auf die Implementierung von Big Data konzentrieren, da Komplexität und Zeitaufwand dank neuer leistungsstarker Big Data Technologien wie Spark und Kafka stark reduziert werden.“

Zitate

„Die finnische Lotterie, Veikkaus, nutzt Pentaho Data Integration, um relationale und teilstrukturierte Daten schnell zu konsolidieren und zu verarbeiten und dadurch ein besseres Kundenverständnis zu erhalten und die Kundenbindung zu stärken“, sagte Harri Räsänen, ICT Architect bei Veikkaus. „Mit Pentaho konnten wir komplexe Datenprobleme enorm schnell lösen und im Hinblick einer sich stets weiter entwickelnden Big Data-Landschaft ein zukunftssicheres Datenfundament aufbauen.“

„Pentaho hilft Unternehmen aus ihren Daten einen Wettbewerbsvorteil zu erzielen, indem es die Einbindung neuer Technologien wie Spark in bestehende Datenumgebungen beschleunigt und indem es die Risiken bei der Anpassung von Sicherheitsrichtlinien für Big Data steuert“, erklärte Tim Stevens, Vice President of Corporate and Business Development bei Cloudera. „Durch die Zusammenarbeit von Cloudera mit Pentaho können gemeinsame Kunden innovative professionelle Hadoop-Analyseanwendungen schneller auf den Markt bringen.“

Das 1993 gegründete US-Unternehmen USAble Life ist eine Lebens-, Invaliden-, Unfall- und Spezialversicherung. Jason Brannon, Supervisor of Data Architecture bei USAble, erläuterte: „Damit die fortlaufenden Änderungen bei den Anmeldedaten zwischen Kunden und Partnern synchronisiert werden können, bedarf es einer flexiblen Datenarchitektur mit so wenig Beschränkungen wie nur möglich. Die Metadaten-Einspeisung in PDI ermöglicht uns eine einmalige Flexibilität, da die Kundendaten automatisch in ausgehende Partnerfeeds umgewandelt werden. Somit haben wir mehr Zeit für das Wesentliche: Datenanalyse und Kundenbindung.“

Die North American Bancard Holding ist ein Branchenführer im Zahlungsverkehr, der jährlich Transaktionen im Wert von mehr als 34 Milliarden US-Dollar zur operativen Verbesserung und zur Optimierung des Kundenservice verarbeitet und analysiert. Krishna Swargam, Business Intelligence Architect bei North American Bancard Holding, sagte: „Pentaho spielt durch die Datenbereitstellung, die in einer komplexen Umgebung direkt für die Analyse genutzt werden können, eine zentrale Rolle beim Orchestrieren und Automatisieren dieser Daten-Pipeline. Wir sind begeistert davon, wie die neuen Big Data-Verbesserungen von Pentaho die operativen Veränderungen im gesamten Unternehmen vorantreiben.“

Ressourcen


Über Pentaho, ein Unternehmen von Hitachi Group Company

Pentaho, ein Unternehmen von Hitachi Group Company, ist ein führender Anbieter von Datenintegrations- und Business Analytics-Lösungen mit einer leistungsstarken Open Source-basierten Plattform mit der Unternehmen entscheidende Einblicke in Big Data erhalten. Pentahos umfassende Datenintegrations- und Business Analytics-Plattform ist komplett in andere Umgebungen einbettbar und stellt geschützte Daten für Analysen jeglicher Art bereit. Pentaho hilft Organisationen und Unternehmen aus unterschiedlichsten Bereichen, all ihre Daten zu nutzen - ob Big Data oder Internet of Things - und entscheidende Einblicke daraus zu erlangen, um neue Einnahmequellen zu identifizieren, effizienter zu wirtschaften, besseren Service zu bieten und Risiken zu minimieren. Pentahos Lösungen wurden über 15.000-mal installiert und sind heute im kommerziellen Einsatz bei über 1.500 Kunden wie u.a. ABN-AMRO Clearing, EMC, NASDAQ, RichRelevance und Staples. Weitere Informationen finden Sie unter: www.pentaho.com/de.

Pentaho Media Contact

Round Earth Consulting
44-20 72 93 27 58
admin@roundearthconsulting.com