Die Menge der Daten, die Unternehmen künftig bewältigen müssen, wird in den nächsten Jahren massiv ansteigen - noch schneller als bislang vermutet. So wird einer Studie des Marktforschungsunternehmens IDC zufolge die digitale Kommunikation um den Faktor Acht zunehmen, die Zahl der mobilen Nutzer wird sich verdreifachen und immer mehr Menschen werden über einen Zugang zu Breitbandnetzen verfügen - mit den entsprechenden Folge für die Unternehmensdatenbanken. Damit Organisationen die enormen Datenmengen für ihren Geschäftserfolg nutzen können, müssen Informationen schnell verfügbar sein und rasch verarbeitet werden können.
Kürzere Antwortzeiten mit In-Memory
In den meisten Firmen ist Datenhaltung die Aufgabe relationaler Datenbanken: Sie speichern strukturierte Daten in Tabellen beziehungsweise Datensätze in Feldern auf der Festplatte oder einem Server ab. Soll eine Rechenoperation durchgeführt werden, müssen die erforderlichen Informationen zunächst aus dem Festspeicher abgerufen werden. Wesentlich kürzere Antwortzeiten soll die In-Memory-Technologie bringen. Ihr Ansatz unterscheidet sich in drei Punkten von den herkömmlichen relationalen Datenbanken.
Zunächst erfolgt die Anordnung der Daten für Analysen nicht in Feldern oder Zeilen, sondern in Spalten. "Anwender durchsuchen Daten in der Regel vertikal nach bestimmten Kategorien wie Verkaufszahlen oder Produkteigenschaften. Auf diese Weise erhalten Sie eine kundenübergreifende, umfassende Sicht auf die Unternehmensleistung. Zeilen liefern hingegen umfangreichere Datensätze, die bei jeder Abfrage vollständig gelesen werden", erläutert Ingo Brenckmann, Program Director Data and Analytic Engines bei SAP, die Funktionsweise der In-Memory-Technologie. "Die Menge an zu bewegenden Daten lässt sich wesentlich reduzieren, weil Daten aus Feldern, die eigentlich nicht benötigt werden, bei Abfragen auf spaltenorientierten Speicherkonzepten auch nicht bewegt werden müssen."
- Die In-Memory-Technologie nutzt zudem für die Datenhaltung statt dem Festspeicher den Direktzugriffsspeicher (RAM). Das ist möglich, weil Kompressionsalgorithmen die Informationen in Spalten bis auf ein Zehntel ihrer Größe verdichten. "Unternehmen können ihre kompletten Datenbestände im RAM ablegen, und innerhalb von Sekunden verfügbar machen."
- Die In-Memory-Technologie ist schließlich in der Lage neben strukturierten Daten auch solche aus Textdokumenten und E-Mails zu verarbeiten - Formate, die in Unternehmen eine immer wichtigere Rolle spielen.
Neue Technologien bilden revolutionäre Plattform
Mit all ihren Vorteilen punktete die In-Memory-Technologie bereits seit ihrem Launch im Jahre 2006 bei verschiedenen Firmen aus den Bereichen Pharma, Banken und Versicherungen sowie aus dem Handel, die mit der Erstversion des SAP NetWeaver BI Accelerator arbeiten. Ihre eigentliche Schlagkraft kann die Technologie aus Sicht von Ingo Brenckmann nun allerdings wesentlich ausweiten. "In den vergangenen Jahren haben sich einige Technologiestränge herausgebildet, die eine revolutionäre Plattform formen", sagt Brenckmann. "Die In-Memory-Technologie unterstützt diese Umgebung optimal und kann Datenbankprozesse wesentlich beschleunigen."
Die Multi-Core-Architektur bei den Prozessoren von Intel ist eine dieser ausschlaggebenden Innovationen. Sie erhöht die Rechenkerne eines Prozessors, so dass inzwischen bis zu acht Rechenoperationen parallel laufen können. Zudem verfügen Hauptplatinen von aktuellen Servern über Steckplätze für mehrere Prozessoren. Mehr Performance bringt schließlich auch die Blade-Architektur im Server-Bereich: Die schlanken, abgeschlossenen Server-Einheiten mit mehreren Prozessoren greifen nur auf die eigenen Daten zu und ermöglichen so eine massiv parallele Serverarchitektur - diese Architektur benötigt eine Software, die das Performance-Potenzial tatsächlich ausnutzen kann.
"Der heutige Anwendungsfall für die In-Memory-Technologie im Zusammenhang mit Multi-Core ist ein analytisches Datenmodell mit einer großen Faktentabelle, deren Daten auf mehrere Rechenkerne fraktioniert werden", erläutert Brenckmann. Im konkreten Fall könnte es sich um ein Unternehmen handeln, das seine gesamten Bon-Daten für ein Produkt nach Quartal aufgeschlüsselt über eine Anzahl von rund einer Milliarde Datensätze ermitteln möchte. Bislang warfen derartige Rechenoperationen innerhalb von relationalen Datenbanken ein typisches OLAP-Problem (Online Analytical Processing) auf: Die Berechnungen erfolgen in Schritten, deren Zwischenergebnisse zunächst abgelegt werden müssen. "Diese Vorberechnungen oder Aggregate benötigen viel Platz", sagt Brenckmann, "außerdem müssen bei neuen Daten die Aggregate wieder neu berechnet werden. Die In-Memory-Technologie macht diese Aggregate überflüssig - die Berechnungen erfolgen in Sekundenschnelle direkt aus dem RAM heraus. Die Datenmenge reduziert sich, der Ladevorgang beschleunigt sich und Datenmodelle werden flexibler."
Ganze Rechenzentren als Rückhalte-Systeme
Damit Daten aus dem RAM beim Ausfall eines Speichers nicht verloren gehen, ist das System mehrfach redundant ausgelegt: Für die über verteilte Landschaften partitionierten Daten werden Indizes auf Festplattensystems hinterlegt, das sind 1:1-Kopien aller im RAM gehaltenen Daten. Fällt ein Blade aus, springt ein Hot-Stand-By-Blade ein, das im Normalbetrieb leer mitläuft und übernimmt die entsprechenden Daten aus dem Festspeichersystem. Die Sicherheits-Architektur lässt sich bis zum Cluster-Fail-Over ausbauen, das zusammen mit den Hardware-Anbietern entwickelt wurde und ganze Rechenzentren als Rückhalte-Systeme vorsieht.
In-Memory bringt für viele Software-Systeme einen Umbruch
"In-Memory wird vieles in Frage stellen, was bislang als selbstverständlich galt", sagt Brenckmann über die Zukunft der Technologie. "So wird die Trennung zwischen operativen und analytischen Systemen in vielen Anwendungsszenarien fallen, die augenblicklich aufgrund der hohen Datenlast und Performance-Einbußen vollzogen wird." Brenckman sieht noch weitreichender sogar den Umgang mit vielen Systemen vor einem Umbruch. In-Memory wird den Kunden nach SAP-Strategie in Ergänzung zu bestehenden Systemen angeboten. Beispiel dafür ist der Advanced Planner and Optimizer (APO), eine Lösung für Supply-Chain-Kunden, die nicht nur umfassende Datenanalysen, sondern auch die Planung von SC-Prozessen erlaubt. Die Technologie hinter APO, der bei rund 2000 Kunden im Einsatz ist, ist lifeCache auf Basis von In-Memory, mit der Objekte der Supply-Chain im Direktspeicher gehalten werden - mit allen Performance-Vorteilen der Technologie.
Die wichtigsten SAP-In-Memory-Produkte
Business Warehouse Accelerator (BWA): Der BW Accelerator arbeitet bei seinen Berechnungen auf Daten der feinsten Granulariät, ohne dass Aggregate oder Zwischenergebnisse in Festplattenspeichern angelegt werden müssen. Auf diese Weise verbessert er die Performance von analytischen Abfragen, verringert Administrationsaufgaben und verkürzt Hintergrundprozesse durch Komprimierungen, parallele Speicherverarbeitung und Suchtechnologien. Der SAP Business Objects Explorer Accelerated stellt auf Basis des BWA eine intuitive BI Umgebung bereit, die Nutzern den Umgang mit großen Datenvolumen aus beliebigen Quellen vereinfacht.
SAP Netweaver BW: Die BW-Lösung ermöglicht Unternehmen einen vollständigen Blick auf ihr Unternehmen. Als Komponente der Plattform SAP NetWeaver bringt SAP NetWeaver BW eine leistungsfähige Business-Intelligence-Infrastruktur, zahlreiche Werkzeuge und Funktionen für Planung & Simulationen sowie für Data-Warehousing zusammen.
SAP Enterprise Search: Die Suchmaschine erlaubt die Verarbeitung von strukturierten und unstrukturierten Daten und unterstützt so einen einfachen und sicheren Zugang zu Unternehmensobjekten und -transaktionen.