Hadoop-Distribution

Intel baut eigene Big-Data-Lösung

07.03.2013
Der Halbleiterspezialist baut sein Portfolio um neue Softwarelösungen aus. Mit einer speziell für die eigene Chip-Plattform angepassten Hadoop-Distribution will Intel im boomenden Big-Data-Geschäft punkten.

Intel will im Big-Data-Markt mitmischen. Der weltweit größte Halbleiterhersteller hat dafür eine eigene Hadoop-Distribution vorgestellt. Das Java-basierte Framework, das derzeit von der Apache Foundation betreut wird, basiert auf einem speziellen File-System sowie dem von Google entwickelten Map-Reduce-Algorithmus, und dient dazu, rechenintensive Analysen großer Datenmengen effizient auf eine Vielzahl von Rechnern zu verteilen. Mittlerweile haben bereits eine Reihe von Herstellern das unter einer Open-Source-Lizenz verfügbare Hadoop-Framework um verschiedene Werkzeuge erweitert.

Auch Intel ergänzt Hadoop mit eigenen Tools. So bietet die Intel-Distribution mit "Intel AES New Instructions" eine vollständige Chip-basierte Verschlüsselung der Daten im Hadoop Distributed File System (HDFS). Unternehmen könnten damit ihre Daten bei der Analyse in verteilten Hadoop-Systemen effizienter absichern, verspricht der Halbleiterspezialist. Der "Intel Manager for Apache Hadoop" soll es Administratoren zudem erleichtern, entsprechende Hadoop-Cluster bereitzustellen, zu konfigurieren und zu überwachen.

Intel zufolge lässt sich mit der neuen Lösung die Datenanalyse deutlich beschleunigen. Die Auswertung von einem Terabyte an Daten, die bislang etwa vier Stunden gedauert habe, könnte innerhalb von sieben Minuten abgewickelt werden, heißt es in einer offiziellen Mitteilung. Die Intel-Verantwortlichen kündigten an, mit einer Reihe von strategischen Partnern zusammenzuarbeiten, um ihre Lösung in andere Plattformen zu integrieren. Dazu zählen Branchengrößen wie beispielsweise Cisco, Dell, SAP, SAS, Teradata und T-Systems.

Das Intelligent Systems Framework soll Daten-Handling beschleunigen

Für den weltweit größten Halbleiterhersteller geht es längst nicht mehr nur um die Fabrikation von Chips und CPUs, sondern immer stärker auch um die Softwarekomponente. Erst vor kurzem hatte der Hersteller sein "Intelligent Systems Framework" vorgestellt, in das nun auch die eigene Hadoop-Distribution eingegliedert werden soll. Das Intel-Framework soll Anwendern ein Tool-Set an die Hand geben, mit deren Hilfe sich Daten sammeln, analysieren und zwischen verschiedenen Geräten in einem Netzwerk austauschen lassen sollen. Darüber hinaus arbeitet Intel eigenen Angaben zufolge an weiteren Lösungen rund um Big Data. Beispielsweise könnten Anwender mit dem "Intel Graph Builder" Informationen aus einem Hadoop-System in Schaubilder umwandeln, um Beziehungen zwischen Daten zu visualisieren.

Wie wichtig die enge Abstimmung zwischen Hardware- und Softwarekomponenten gerade im Zusammenhang mit einem effizienten Daten-Handling ist, zeigt auch die Kooperation von Intel und SAP im Umfeld von Big Data. Der deutsche Softwarekonzern hat seine In-Memory-Appliance HANA speziell für das Zusammenspiel mit Intel-Prozessoren optimiert. Die Software ist dabei so zugeschnitten, das Instruction-Set der Chips möglichst effektiv für eine schnelle Verarbeitung der Daten auszunutzen.

Gordon Graylish, Vice President of Sales and Marketing Group sowie General Manager of Enterprise Solution Sales, spricht von einer industriellen Revolution im Zuge von Big Data, Cloud Computing und dem Internet der Dinge. Für Intel bedeuteten diese Trends einen Paradigmenwechsel in seiner Entwicklungsstrategie. Früher habe Intel mit seinen Chip-Plattformen eine Referenz gesetzt, an der sich die Softwarehersteller orientiert haben. Heute sei es umgekehrt, berichtet Graylish. Software und Anwendungen würden den Takt vorgeben, an dem sich die Chipentwicklung orientieren müsse. In den eigenen Forschungslabors drehe sich derzeit beispielsweise viel um Themen wie Gesichts- und Spracherkennung. Angesichts der immer breiteren Gerätepalette gehe es für Intel außerdem darum, für die verschiedensten Device-Typen je nach Anforderung die passende Chipplattform zu liefern. Gerade im Zuge des Internet of Things dürfte die Bandbreite noch deutlich zunehmen, prognostiziert der Manager.

Intel hält am Itanium fest

Festhalten will Intel dabei auch an viel diskutierten Plattformen wie dem "Itanium". In den vergangenen Monaten wurde wiederholt darüber spekuliert, Intel könnte die Server-CPU-Familie aufs Abstellgleis schieben und sich stattdessen nur noch auf die Xeon-Chips konzentrieren. Der Halbleiterhersteller hatte gemeinsam mit Hardwarepartner Hewlett-Packard im zurückliegenden Jahrzehnt Milliarden in die Itanium-Entwicklung gesteckt. HP ersetzt mit dem Itanium seine eigene PA-Risc Server-Chip-Reihe.

Allerdings ist HP derzeit auch der einzige große Server-Hersteller, der den Itanium noch einsetzt. Andere Anbieter wie NEC haben ihre Itanium-Reihen eingestellt. Für Furore hatte außerdem die Ankündigung Oracles gesorgt, die eigenen Softwareprodukte nicht mehr für die Itanium-Plattform anpassen zu wollen. In dem darauf folgenden Streit zwischen Oracle und HP hat mittlerweile jedoch ein US-Gericht entschieden, dass Softwarehersteller verpflichtet sei, die Plattform des Konkurrenten weiter zu unterstützen.

Graylish zufolge wird Intel am Itanium festhalten. Es gebe zwar gerade im Umfeld von Cloud Computing einen hohen Bedarf an standardisierten und breit skalierbaren Server-Plattformen. Diesen Markt adressiert Intel mit seiner Xeon-Familie. Parallel dazu erforderten jedoch eine Reihe von Anwendungen und Workloads spezielle Hochleistungs-CPUs wie den Itanium.