SAPs In-Memory Technologie

High Performance aus dem RAM

18.05.2010 von Ima Buxton
Analytische BI-Anwendungen profitieren mit höherer Performance schon länger vom In-Memory-Ansatz. SAP nutzt Innovationen im Bereich der Hardware wie Multi-Core- und Blade-Architekturen, sowie eigene Erfahrungen aus fünf Jahren der In-Memory Software Entwicklung, um der Technologie den entscheidenden Schub zu verleihen.
366 Millionen Datensätze in 15 Millisekunden - - - Anfragen in Spalten durchsuchen und nicht auf alle Datensätze gleichzeitig zugreifen: Das ist das Prinzip der In-Memory-Technologie. Der SAP Business Objects Explorer kann nach Angaben von "SAP Spectrum" 366 Millionen Datensätze in 15 Millisekunden durchforsten. Für die SAP Business Suite 7 und SAP Business ByDesign ist die Technologie inzwischen Standard.

Die Menge der Daten, die Unternehmen künftig bewältigen müssen, wird in den nächsten Jahren massiv ansteigen - noch schneller als bislang vermutet. So wird einer Studie des Marktforschungsunternehmens IDC zufolge die digitale Kommunikation um den Faktor Acht zunehmen, die Zahl der mobilen Nutzer wird sich verdreifachen und immer mehr Menschen werden über einen Zugang zu Breitbandnetzen verfügen - mit den entsprechenden Folge für die Unternehmensdatenbanken. Damit Organisationen die enormen Datenmengen für ihren Geschäftserfolg nutzen können, müssen Informationen schnell verfügbar sein und rasch verarbeitet werden können.

Kürzere Antwortzeiten mit In-Memory

In den meisten Firmen ist Datenhaltung die Aufgabe relationaler Datenbanken: Sie speichern strukturierte Daten in Tabellen beziehungsweise Datensätze in Feldern auf der Festplatte oder einem Server ab. Soll eine Rechenoperation durchgeführt werden, müssen die erforderlichen Informationen zunächst aus dem Festspeicher abgerufen werden. Wesentlich kürzere Antwortzeiten soll die In-Memory-Technologie bringen. Ihr Ansatz unterscheidet sich in drei Punkten von den herkömmlichen relationalen Datenbanken.

Die Menge an zu bewegenden Daten lässt sich wesentlich reduzieren, weil Daten aus Feldern, die eigentlich nicht benötigt werden, bei Abfragen auf spaltenorientierten Speicherkonzepten auch nicht bewegt werden müssen", sagt Ingo Brenckmann, Program Director Data and Analytic Engines bei SAP.

Zunächst erfolgt die Anordnung der Daten für Analysen nicht in Feldern oder Zeilen, sondern in Spalten. "Anwender durchsuchen Daten in der Regel vertikal nach bestimmten Kategorien wie Verkaufszahlen oder Produkteigenschaften. Auf diese Weise erhalten Sie eine kundenübergreifende, umfassende Sicht auf die Unternehmensleistung. Zeilen liefern hingegen umfangreichere Datensätze, die bei jeder Abfrage vollständig gelesen werden", erläutert Ingo Brenckmann, Program Director Data and Analytic Engines bei SAP, die Funktionsweise der In-Memory-Technologie. "Die Menge an zu bewegenden Daten lässt sich wesentlich reduzieren, weil Daten aus Feldern, die eigentlich nicht benötigt werden, bei Abfragen auf spaltenorientierten Speicherkonzepten auch nicht bewegt werden müssen."

Die Blade-Architektur im Server-Bereich wirkt auf die In-Memory Technologie wie ein Katalysator: Die Prozessoren einzelner Blades greifen nur auf die eigenen Daten zu und ermöglichen so eine massiv parallele Serverarchitektur - mit erheblich schnelleren Datenzugriffen.

- Die In-Memory-Technologie nutzt zudem für die Datenhaltung statt dem Festspeicher den Direktzugriffsspeicher (RAM). Das ist möglich, weil Kompressionsalgorithmen die Informationen in Spalten bis auf ein Zehntel ihrer Größe verdichten. "Unternehmen können ihre kompletten Datenbestände im RAM ablegen, und innerhalb von Sekunden verfügbar machen."

- Die In-Memory-Technologie ist schließlich in der Lage neben strukturierten Daten auch solche aus Textdokumenten und E-Mails zu verarbeiten - Formate, die in Unternehmen eine immer wichtigere Rolle spielen.

Neue Technologien bilden revolutionäre Plattform

Mit all ihren Vorteilen punktete die In-Memory-Technologie bereits seit ihrem Launch im Jahre 2006 bei verschiedenen Firmen aus den Bereichen Pharma, Banken und Versicherungen sowie aus dem Handel, die mit der Erstversion des SAP NetWeaver BI Accelerator arbeiten. Ihre eigentliche Schlagkraft kann die Technologie aus Sicht von Ingo Brenckmann nun allerdings wesentlich ausweiten. "In den vergangenen Jahren haben sich einige Technologiestränge herausgebildet, die eine revolutionäre Plattform formen", sagt Brenckmann. "Die In-Memory-Technologie unterstützt diese Umgebung optimal und kann Datenbankprozesse wesentlich beschleunigen."

Die Multi-Core-Architektur bei den Prozessoren von Intel ist eine dieser ausschlaggebenden Innovationen. Sie erhöht die Rechenkerne eines Prozessors, so dass inzwischen bis zu acht Rechenoperationen parallel laufen können. Zudem verfügen Hauptplatinen von aktuellen Servern über Steckplätze für mehrere Prozessoren. Mehr Performance bringt schließlich auch die Blade-Architektur im Server-Bereich: Die schlanken, abgeschlossenen Server-Einheiten mit mehreren Prozessoren greifen nur auf die eigenen Daten zu und ermöglichen so eine massiv parallele Serverarchitektur - diese Architektur benötigt eine Software, die das Performance-Potenzial tatsächlich ausnutzen kann.

Die Sicherheits-Architektur für In-Memory-Technologie lässt sich bis zum Cluster-Fail-Over ausbauen, das ganze Rechenzentren als Rückhalte-Systeme vorsieht.
Foto: Strato AG

"Der heutige Anwendungsfall für die In-Memory-Technologie im Zusammenhang mit Multi-Core ist ein analytisches Datenmodell mit einer großen Faktentabelle, deren Daten auf mehrere Rechenkerne fraktioniert werden", erläutert Brenckmann. Im konkreten Fall könnte es sich um ein Unternehmen handeln, das seine gesamten Bon-Daten für ein Produkt nach Quartal aufgeschlüsselt über eine Anzahl von rund einer Milliarde Datensätze ermitteln möchte. Bislang warfen derartige Rechenoperationen innerhalb von relationalen Datenbanken ein typisches OLAP-Problem (Online Analytical Processing) auf: Die Berechnungen erfolgen in Schritten, deren Zwischenergebnisse zunächst abgelegt werden müssen. "Diese Vorberechnungen oder Aggregate benötigen viel Platz", sagt Brenckmann, "außerdem müssen bei neuen Daten die Aggregate wieder neu berechnet werden. Die In-Memory-Technologie macht diese Aggregate überflüssig - die Berechnungen erfolgen in Sekundenschnelle direkt aus dem RAM heraus. Die Datenmenge reduziert sich, der Ladevorgang beschleunigt sich und Datenmodelle werden flexibler."

Ganze Rechenzentren als Rückhalte-Systeme

Damit Daten aus dem RAM beim Ausfall eines Speichers nicht verloren gehen, ist das System mehrfach redundant ausgelegt: Für die über verteilte Landschaften partitionierten Daten werden Indizes auf Festplattensystems hinterlegt, das sind 1:1-Kopien aller im RAM gehaltenen Daten. Fällt ein Blade aus, springt ein Hot-Stand-By-Blade ein, das im Normalbetrieb leer mitläuft und übernimmt die entsprechenden Daten aus dem Festspeichersystem. Die Sicherheits-Architektur lässt sich bis zum Cluster-Fail-Over ausbauen, das zusammen mit den Hardware-Anbietern entwickelt wurde und ganze Rechenzentren als Rückhalte-Systeme vorsieht.

In-Memory bringt für viele Software-Systeme einen Umbruch

Der APO (Advanced Planner and Optimizer) erlaubt nicht nur umfassende Datenanalysen, sondern auch die Planung von Supply-Chain-Prozessen.

"In-Memory wird vieles in Frage stellen, was bislang als selbstverständlich galt", sagt Brenckmann über die Zukunft der Technologie. "So wird die Trennung zwischen operativen und analytischen Systemen in vielen Anwendungsszenarien fallen, die augenblicklich aufgrund der hohen Datenlast und Performance-Einbußen vollzogen wird." Brenckman sieht noch weitreichender sogar den Umgang mit vielen Systemen vor einem Umbruch. In-Memory wird den Kunden nach SAP-Strategie in Ergänzung zu bestehenden Systemen angeboten. Beispiel dafür ist der Advanced Planner and Optimizer (APO), eine Lösung für Supply-Chain-Kunden, die nicht nur umfassende Datenanalysen, sondern auch die Planung von SC-Prozessen erlaubt. Die Technologie hinter APO, der bei rund 2000 Kunden im Einsatz ist, ist lifeCache auf Basis von In-Memory, mit der Objekte der Supply-Chain im Direktspeicher gehalten werden - mit allen Performance-Vorteilen der Technologie.

Die wichtigsten SAP-In-Memory-Produkte

Business Warehouse Accelerator (BWA): Der BW Accelerator arbeitet bei seinen Berechnungen auf Daten der feinsten Granulariät, ohne dass Aggregate oder Zwischenergebnisse in Festplattenspeichern angelegt werden müssen. Auf diese Weise verbessert er die Performance von analytischen Abfragen, verringert Administrationsaufgaben und verkürzt Hintergrundprozesse durch Komprimierungen, parallele Speicherverarbeitung und Suchtechnologien. Der SAP Business Objects Explorer Accelerated stellt auf Basis des BWA eine intuitive BI Umgebung bereit, die Nutzern den Umgang mit großen Datenvolumen aus beliebigen Quellen vereinfacht.

SAP Netweaver BW: Die BW-Lösung ermöglicht Unternehmen einen vollständigen Blick auf ihr Unternehmen. Als Komponente der Plattform SAP NetWeaver bringt SAP NetWeaver BW eine leistungsfähige Business-Intelligence-Infrastruktur, zahlreiche Werkzeuge und Funktionen für Planung & Simulationen sowie für Data-Warehousing zusammen.

SAP Enterprise Search: Die Suchmaschine erlaubt die Verarbeitung von strukturierten und unstrukturierten Daten und unterstützt so einen einfachen und sicheren Zugang zu Unternehmensobjekten und -transaktionen.