KONZEPT FÜR DEN ERFOLG MIT BIG DATA:

Data Warehouse optimieren

Reduzieren Sie die Belastung des Data Warehouses, indem Sie weniger genutzte Daten und entsprechende Transformations-Workloads nach Hadoop auslagern, ohne Programmierung oder die Verwendung von Legacy-Skripts und ohne von ETL-Produktbeschränkungen abhängig zu sein.

HADOOP: EINFACH WIE NIE, PROBLEMLOSER ZUGRIFF UND 15 MAL SCHNELLER

Pentaho hat das Auslagern von Daten nach Hadoop erleichtert und dafür gesorgt, dass die Entwicklung und Bereitstellung im Vergleich zu manuellen Programmiertätigkeiten 15 Mal schneller ist. Hochentwickelte, visuelle Integrationstools sorgen dafür, dass die manuelle SQL-Programmierung oder die auf Java basierten MapReduce-Aufgaben der Vergangenheit angehören.

DATENKOSTEN SPAREN UND ANALYSELEISTUNG STEIGERN

  • Eine intuitive, grafische Big Data-Integration ohne Programmierung
  • Zugriff auf alle Datenquellen – von operativen und relationalen bis hin zu NoSQL-Technologien
  • Unterstützung für alle wichtigen Hadoop-Distributionen mit einem zukunftsfähigen adaptiven Big Data-Layer
  • Erzielen einer höheren Verarbeitungsleistung mit Pentaho MapReduce bei Ausführung in einem Cluster
  • 100% Java, schnell und effizient

Mit der Pentaho Business Analytics-Plattform können Sie sofort Nutzen aus Ihren Daten ziehen. Integrierte Berichterstellung, Dashboards, Datenermittlung und prognostische Analysen ebnen Ihnen den schnellsten und kostengünstigsten Weg.

HIER FINDEN SIE EIN BEISPIEL FÜR DIE FUNKTIONSWEISE IN EINER IT-LANDSCHAFT:

  • Dieses Unternehmen nutzt Daten aus verschiedenen Quellen, einschließlich CRM- und ERP-Systeme.
  • Ein Hadoop-Cluster wurde implementiert, um weniger genutzte Daten aus dem vorhandenen Data Warehouse auszulagern.
  • Das Unternehmen spart Speicherkosten und erhöht die Abfrageleistung sowie den Zugriff auf das Analyse-Data Mart.

ERGEBNISSE

  • Personaleinsparungen und Produktivität: Visuelle MapReduce-Benutzeroberfläche von Pentaho und Big Data-Integration bedeuten, dass Data Warehouse-Entwickler ohne Programmierung vorhandene Daten aus dem Data Warehouse in Hadoop auslagern können.
  • Amortisierung: Die MapReduce-Entwicklungszeit wird im Vergleich zur manuellen Programmierung um das 15-fache reduziert.
  • Schnellere Ausführung von Aufgaben: Pentaho MapReduce wird im Cluster im Vergleich zu Tools zur Erstellung von Skriptcode schneller ausgeführt.

FÜHRENDES GLOBALES UNTERNEHMEN IM BEREICH NETZWERKSPEICHER

BIG DATA-ZIEL:

Skalieren der Computerdatenverwaltung zur Erhöhung der Produktivität und Steigerung des Kundenerfolgs

  • Kostengünstige Skalierung von Computerdaten aus Speichergeräten für Kundenanwendungen
  • Prognostizieren von Gerätefehlern
  • Verbessern der Produktleistung

ARCHITEKTURBEISPIEL:

VORTEILE VON PENTAHO:

  • Einfaches ETL und benutzerfreundliche Analysen für Hadoop-, Hbase- und Oracle-Datenquellen
  • Reduzieren der Datenkosten um das 15-fache
  • Verbesserte Leistung für kundenbezogene Dienstleistungsvereinbarungen