Hadoop für die Hybrid Cloud

Red Hat und Hortonworks konkretisieren strategische Partnerschaft

Thomas Cloer war viele Jahre lang verantwortlich für die Nachrichten auf computerwoche.de.
Er sorgt außerdem ziemlich rund um die Uhr bei Twitter dafür, dass niemand Weltbewegendes verpasst, treibt sich auch sonst im Social Web herum (auch wieder bei Facebook) und bloggt auf teezeh.de. Apple-affin, bei Smartphones polymorph-pervers.
Red Hat und Hortonworks stellen ihre im Sommer vergangenen Jahres angekündigte strategische Partnerschaft auf eine deutlich konkretere Basis.

Erklärtes Ziel beider Open-Source-Firmen ist es dabei, ein Enterprise-taugliches Apache Hadoop für die offene Hybrid Cloud anzubieten. Dazu wollen Red Hat und Hortonworks entsprechende Lösungen gemeinsam entwickeln, an den Markt bringen und supporten, wie sie heute mitteilen.

Die Apache-Hadoop-Distribution von Hortonworks wird dazu der gemeinsamen Ankündigung zufolge unter anderem mit Red Hat Storage, Komponenten der Middlware-Produktfamilie Red Hat JBoss, der Red Hat Enterprise Linux (RHEL) OpenStack Platform sowie RHEL und dem darin enthaltenen OpenJDK integriert.

Integration: Rot ist Red Hat, Grün ist Hortonworks.
Integration: Rot ist Red Hat, Grün ist Hortonworks.
Foto: Red Hat

Als wichtigste Treiber für den Einsatz von Hadoop für Big Data Analytics im Unternehmen haben die Partner Business Analysts, Anwendungsentwickler, Big Data Architects sowie Operators ausgemacht. Die Big-Data-Plattform sehen sie dabei zwischen Infrastruktur- (IaaS) und Plattform-Diensten (PaaS) aus der Cloud angesiedelt.

Auf Basis des Hadoop Distributed Filesystem (HDFS) mit darübergelegter Verwaltung von Cluster-Ressourcen (YARN) geht die vollständige quelloffene Hortonworks Data Platform (HDP) über klassisches MapReduce-Hadoop hinaus und ermöglicht unter anderem SQL- und skriptbasierende Datenverarbeitung (u.a. mit Hive, Pig), die Verarbeitung von Online-Daten (HBase, Accumulo) sowie auch die Verarbeitung von Echtzeit-Datenströmen (Storm). Daneben umfasst HDP auch Lösungen für Datenintegration (Sqoop, Flume) sowie Operational Services (Ambari, Falcon, Oozie, Knox).

Die HDP-Integration mit Red Hat Storage erfolgt über Ambari-Integration und ein Hadoop-kompatibles File System und soll für Data Architects eine nahtlose HDP-Integration in die vorhandene Infrastruktur ermöglichen. Als unterliegende Infrastruktur empfehlen die Partner natürlich RHEL mit OpenJDK intern im Zusammenspiel mit der RHEL OpenStack Platform in der Cloud.

Sarangan "Ranga" Rangachari, Vice President and General Manager Storage and Big Data Business Unit, Red Hat
Sarangan "Ranga" Rangachari, Vice President and General Manager Storage and Big Data Business Unit, Red Hat
Foto: Red Hat

Oberhalb von HDP sollen dann JBoss Data Virtualization, JBoss Data Grid und JBoss BRMS, darüber wiederum die Anwendungs-PaaS OpenShift, flankiert vom Red Hat JBoss Developer Studio, HDP mit einem bei Bedarf gemeinsamen Datenmodell in vorhandene Enterprise-Systeme einbinden und erstens Entwicklern das Erstellen neuer analytischer Anwendungen für neue Datentypen und zweitens Business-Analysten die Nutzung von Big Data in business-freundlicher Form erleichtern.

Für HDP auf Red Hat Storage startet zunächst ein Beta-Programm. Red Hat JBoss Data Virtualization with HDP sowie HDP on RHEL with OpenJDK sind verfügbar. "Daten - speziell solche, die mit Hadoop verarbeitet warden - sind die Killer-Applikation für die offene hybride Cloud", glaubt Ranga Rangachari, Red Hats General Manager Storage and Big Data. "Unternehmen suchen nach Lösungsanbietern, die ihnen für ihre Big-Data-Projekte zu einer dramatischen Senkung der Time-to-Results verhelfen." Die strategische Allianz mit Hortonworks fokussiere darauf, Kunden bei ihren Big-Data-Gehversuchen mit Effizienz und Agilität zu unterstützen. Dafür können Interessenten bei Red Hat unter anderem eine Kurzbeschreibung der Lösung sowie eine Referenzarchitektur herunterladen.