SAP Datenanalyse

HANA pusht In-Memory

01.12.2010 von Ima Buxton
Mit der HANA-Initiative will SAP seinem Technologie-Flaggschiff In-Memory zum Durchbruch verhelfen. Damit könnten Unternehmen schon bald von einer deutlich höheren Performance bei der Datenanalyse profitieren. Von Expertenseite wird derzeit allerdings noch der stark technologische Fokus von HANA kritisiert.
Foto: Fotolia, Sebastian Kaulitzki

Das Ausmaß der globalen digitalen Datenverarbeitung erreicht geradezu unvorstellbare Dimensionen. Im vergangenen Jahr schwoll die Menge der weltweit digital gespeicherten Daten nach Angaben des Marktforschers IDC auf fast unvorstellbare 800.000 Petabyte (PB) oder 800 Millionen Terabyte (TB) an. Die Ursachen für das explosionsartige Wachstum der digitalen Datenmenge: immer mehr Menschen finden Anschluss an die digitale Welt, der geschäftliche Nutzungsgrad der IT steigt, der mobile Datenverkehr nimmt weiter zu. Soziale Netzwerke, Cloud-Computing und andere web-basierte Dienste und Anwendungen treiben die Zahl der gespeicherten Bits und Bytes weiter in die Höhe. Für Unternehmen sind diese Daten von unschätzbarem Wert, liefern sie doch wichtige Informationen über Kunden und das dazugehörige Geschäftsumfeld. Zugleich stellt die Datenflut Anbieter wie Anwender vor eine Reihe neuer Probleme, mahnt auch IDC. Ohne neue Techniken etwa für das Informationsmanagement und ohne Mittel und Wege, unstrukturierte Daten mit einer Struktur zu versehen, seien die gewonnenen Daten kaum nutzbar.

Antwortzeiten unterhalb der Wahrnehmungsschwelle

Vishal Sikka, SAP Vorstandsmitglied und CTO, erwartet von In-Memory nachhaltige Auswirkungen auf die Art und Weise, wie Unternehmen ihr Geschäft betreiben.
Foto: SAP AG

In diese Bresche will nun SAP mit seiner Datenbanktechnologie In-Memory springen. In-Memory-Computing soll Unternehmen in die Lage versetzen, Daten aus dem ERP-System in Echtzeit zu analysieren, soll heißen, die Analyse großer Mengen von Daten in einem Zeitrahmen, der salopp gesprochen unterhalb der Wahrnehmungsschwelle liegt: "Real realtime" nennt Technikchef und Vorstandsmitglied Vishal Sikka diese Form der Datenverarbeitung innerhalb kürzester Zeit. "Das Revolutionäre an der In-Memory-Technologie ist die Menge der Daten, die damit verarbeitet werden können" ergänzt Ingo Brenckmann, Leiter Solution Management Data und Analytic Engines bei SAP. "Wir haben in Testfällen 460 Milliarden Datensätze verarbeitet, und Ergebnisse in Millisekunden zurück geliefert."

Ingo Brenckmann und Vishal Sikka zu InMemory und die HANA-Initiative



Zum Video

Die Zeit sei reif für Echtzeitanalysen in Unternehmen, meint Ingo Brenckmann von SAP. Vor allem dank der aktuellen CPU-Technologie ließen sich mittels In-Memory Millionen von Datensätzen in Milisekunden analysieren, erläutert der Leiter der Data and Analytic Engines bei SAP.

Damit setzt SAP ohne Zweifel neue Maßstäbe in der Datenverarbeitung. Dabei ist die der In-Memory-Technologie zugrunde liegende Idee aber keineswegs neu. Bereits im Jahr 2002 hatte SAP mit einer neuen Form des Data Processing die nächste Generation von Data-Analytics angekündigt. Ihr Ansatz unterscheidet sich in drei Punkten von den herkömmlichen relationalen Datenbanken. So ermöglichte die Anordnung strukturierter ERP-Daten in Spalten statt in Zeilen eine effektivere Abfrage. Ein weiterer Leistungsschub gelang durch die Verlegung der Datenhaltung vom Festspeicher in den Direktzugriffsspeicher (RAM). Schließlich erlaubte die neuartige Technologie auch die Verarbeitung unstrukturierter Daten aus Textdokumenten und E-Mails - eine für Unternehmen unverzichtbare Datenquelle im Zeitalter von Social Media.

Aktuelle CPU-Technologie verleiht In-Memory neuen Schwung

Doch ein durchschlagender Erfolg gelang der innovativen Technologie zunächst nicht. "Wir haben vor einigen Jahren bereits eine frühere Variante von In-Memory auf den Markt gebracht", skizziert Sikka die Entwicklung. "Doch erst jetzt, aufgrund entscheidender Verbesserungen im Hard- und Softwarebereich kann das Produkt seine Wirkung voll entfalten." Zentrale Bedeutung kommt dabei der aktuellen CPU-Technologie zu, konstatiert Ingo Brenckmann: "Wir sind mit In-Memory-Computing in der Lage, eine Million Datensätze pro Millisekunde pro Rechenkern zu verarbeiten. Die aktuellen Maschinen in den Rechenzentren verfügen über zahlreiche Prozessoren, die jeweils mit bis zu acht Rechenkernen ausgestattet sind", so Brenckmann. "Damit potenziert In-Memory-Computing die hohe Performance aktueller Hardware nochmals um ein Vielfaches."

Ingo Brenckmann und Vishal Sikka zu InMemory und die HANA-Initiative


Zum Video

Angesichts von CRM-Boost und Mobile Revolution kommt diese Entwicklung zur rechten Zeit, meint auch Wolfgang Martin, laut The InfoEconomist einer der 10 einflussreichsten IT Consultants in Europa (2001): "Die Verarbeitung von Daten im großen Stil ist unerlässlich vor allem für Unternehmen, die im B2C-Bereich etwa den Medien, Finanzen, Touristik, Handel, Lifestyle-Produkte, Hightech tätig sind - um nur einige zu nennen", meint Martin. "In diesen Geschäftsfeldern entstehen immer mehr Daten etwa aus den Sozialen Medien, wo über Produkte gesprochen wird. Die effektive Nutzung dieser Daten ist für Unternehmen wettbewerbsentscheidend."

"Denk- und Analysemuster der Mitarbeiter verändern sich"

Erweisen sich die SAP-Prognosen als zuverlässig, könnte der Software-Riese mit In-Memory-Computing einer Vielzahl von Produkten einen deutlichen Attraktivitätsschub verleihen: Die bestehenden Applikationen rund um das Herzstück der Datenspeicherung, das Business Warehouse, sowie das SAP-BusinessObjects-Portfolio, das Tools zur Verknüpfung von Unternehmensdaten mit dem Ziel einer verbesserten Performance bereitstellt, ließen sich erheblich beschleunigen, die Menge der zu verarbeitenden Daten deutlich steigern. Das könnte sich nachhaltig auf den Umgang mit Daten in Unternehmen auswirken, prognostiziert Sikka: "Wir sind davon überzeugt, dass In-Memory, die Art und Weise, wie Unternehmen arbeiten, grundlegend verändern wird", so der SAP-Vorstand. "In-Memory eröffnet die Chance, neuartige Analyse-Anwendungen im Bereich von Simulationen, Forecasting und Planung zu entwickeln". Eine Sichtweise die auch IDC-Analyst Rüdiger Spies teilt: "Unsere Erfahrung hat gezeigt, dass signifikant schnellere Antwortzeiten den Umgang mit Daten ebenso wie die Denk- und Analysemuster der Mitarbeiter verändern", so der IT-Experte. "Auf diese Weise erhalten die Unternehmen ganz neue Einsichten in Kunden und Lieferströme.

Ingo Brenckmann und Vishal Sikka zu InMemory und die HANA-Initiative


Zum Video

Die zahlreichen neuen Perspektiven, die In-Memory-Computing eröffnet, bedeuten für die Unternehmen aber auch, an neue Einsatzszenarien anschließen zu müssen. "In-Memory ermöglicht ganz neue Prozesse, was die Technologie aber zugleich disruptiv macht", konstatiert Brenckmann. "Um Kunden den schrittweisen Einsatz von In-Memory in der eigenen gewünschten Geschwindigkeit zu ermöglichen, haben wir deshalb HANA entwickelt: High Analytic Performance and Appliance läuft als Sidecast-Szenario neben existierenden Anwendungen, womit Kunden die Mehrwerte des Reportings auf Echzeitdaten nutzen können, aber kein Risiko bei der Einführung tragen".

"Aus Business-Sicht greift die Lösung zu kurz"

Technologisch betrachtet sei die HANA-Initiative sicherlich richtig und sinnvoll, bewertet Wolfgang Martin die SAP-Strategie, Kunden In-Memory verfügbar zu machen. Doch der Datenexperte mahnt zugleich, aus Business-Sicht greife die Lösung an einigen Stellen zu kurz. "Was ist mit der Datenqualität", gibt Martin zu Bedenken. "Sind die Daten aus dem SAP-System wirklich fehlerfrei, so dass Unternehmen auf Basis ihrer Analysen Entscheidungen treffen könen?" Unerwartete Buchungsvorkommnisse wie Rückbuchungen und Storni, aber auch heterogene Datenquellen lösten Fragestellungen aus, die sich nur mit Information-Management beantworten ließen, meint Martin "Ein Information-Management muss aus Gründen der Datenqualität durchgeführt werden", fordert der Experte. "Anders ausgedrückt: Unternehmen, die die fantastischen Möglichkeiten von In-Memory und Data-Analytics nutzen wollen, müssen sich entsprechend vorbereiten. Wer Information-Management ernst nimmt und eine Information-Governance aufsetzt, wird viel Erfolg und einen hohen Return-on-Investment mit In-Memory erzielen".

Ingo Brenckmann und Vishal Sikka zu InMemory und die HANA-Initiative


Zum Video