SAP-Technologie

In-Memory-Computing - zwischen IT-Beschleuniger und Nische

01.06.2012
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Mit In-Memory-Computing und spaltenorientierter Datenbanktechnik will SAP ein neues IT-Zeitalter einläuten. Dabei sind die zugrunde liegenden Techniken nicht neu. Anwender wollen erst einmal prüfen, ob sich der IT-Beschleuniger auch rechnet.
Kann SAP mit In-Memory-Computing die hochgesteckten Ziele erreichen?
Kann SAP mit In-Memory-Computing die hochgesteckten Ziele erreichen?
Foto: Shutterstock/Anteromite

"Meilenstein" - "Paradigmenwechsel" - "eine neue Ära der Datenverarbeitung" - "real Realtime-Business" - SAPs Marketing-Strategen überschlagen sich derzeit geradezu mit Superlativen rund um das Thema "In-Memory-Computing" und die neue Appliance "HANA" (High Performance Analytical Appliance). Seit knapp einem Jahr lässt der größte deutsche Softwarekonzern keine Gelegenheit aus, darzulegen, welche Vorteile die Anwender künftig aus der neuen Technik ziehen könnten. Die Rede ist von völlig neuen Analyse- und Geschäftsanwendungen sowie einer deutlich vereinfachten und kostengünstigeren IT-Infrastruktur.

Nun wird es ernst. Ende Juni 2011 hat das SAP-Management seine In-Memory-Appliance HANA offiziell am Markt vorgestellt und muss nun beweisen, ob es seine vollmundigen Versprechungen einlösen kann.

Bei HANA handelt es sich um eine Appliance, für die SAP Server-Hardware von Partnern wie Cisco, Dell, Fujitsu, Hewlett-Packard und IBM zertifiziert hat. Das Softwarepaket aus In-Memory-Datenbank und Business-Intelligence-Applikationen (BI) kommt aus Walldorf. SAPs Technikvorstand Vishal Sikka sprach von einem Meilenstein: "SAP HANA verändert grundlegend die Art und Weise, wie in Unternehmen gedacht, geplant und gearbeitet wird."

HANA soll Geschäftsabläufe in den Unternehmen quasi in Echtzeit analysieren können. Grundlage dafür bildet die Datenhaltung im Hauptspeicher der Rechner. Hier sollen Transaktions- und Analysedaten, die in herkömmlichen IT-Archtiketuren meist getrennt gehalten werden, in einem gemeinsamen Pool zusammenfließen. Anwender könnten damit - so die Vision der SAP - den eigenen Geschäftsablauf jederzeit auf Basis immer aktueller Daten auswerten, da das System kontinuierlich mit Informationen aus den operativen Systemen wie beispielsweise dem ERP gefüttert werde. Große Datenmengen ließen sich so in Echtzeit bearbeiten und auswerten.

"Wir sehen in der In-Memory-Technik das Potenzial, ganze Geschäftsprozesse zu optimieren", bekräftigt Ingo Brenckmann, Program Director Data and Analytical Engines bei SAP. Klassische Techniken, Daten in einem Warehouse zu sammeln, im Rahmen von zeitaufwendigen Batch-Jobs in regelmäßigen Zeitabständen auf einen aktuellen Stand zu bringen und dann Analysen über längere Zeiträume von Stunden oder gar Tagen auf diesen Daten zu fahren, stießen derzeit an physische Rechengrenzen und reichten künftig nicht mehr aus.

Daten und Prozesse im RAM

Aus Sicht der Barc-Experten gibt es verschiedene Dimensionen, die die Strukturen analytischer Datenbanken beeinflussen. Dabei sind viele Kombinationen denkbar.
Aus Sicht der Barc-Experten gibt es verschiedene Dimensionen, die die Strukturen analytischer Datenbanken beeinflussen. Dabei sind viele Kombinationen denkbar.
Foto: Barc

Diese Grenzen will SAP mit seiner In-Memory-Technik und HANA überwinden. Dabei gehe es allerdings nicht nur um die Datenhaltung, erläutert Brenckmann. Würden Anwender nur die Daten in den Hauptspeicher verlagern, ohne die Anwendungen zu modifizieren, verschenkten sie Optimierungspotenzial, da sich auf diese Weise nur die Abfrage-Laufzeit beschleunigen lasse. SAPs In-Memory-Ansatz beinhaltet laut Brenckmann zusätzlich einen Computing-Teil. Dieser beschleunige nicht nur die Abfragen, sondern auch datenintensive Prozesse. Sie liefen künftig auch in-memory direkt auf der Datenbasis in HANA ab. Informationen müssten damit nicht mehr aus der Datenbank in die Applikationsschicht transportiert werden. "So gewinnen wir viel Zeit", sagt der SAP-Manager. "Wir bewegen nicht mehr Unmengen von Daten. Das ist sehr wichtig für das Echtzeit-Computing."

Was heißt In-Memory?

In-Memory-Datenbanken zeichnen sich dadurch aus, dass sie primär den Arbeitsspeicher (Random Access Memory = RAM) eines Computers als Datenspeicher nutzen. Aufgrund der höheren Zugriffsgeschwindigkeiten lässt sich die Datenverarbeitung signifikant beschleunigen. Um die Daten im flüchtigen Arbeitsspeicher zu sichern, setzen Hersteller Techniken wie Snapshots, Transaction Logs und Replikationen ein. Die Daten werden dann bei Bedarf etwa auf herkömmliche Festplattensysteme geschrieben.

In-Memory-Technik gibt es bereits seit einigen Jahren, sie fristet aber bis dato eher ein Nischendasein. Vor allem Unternehmen, in denen es auf Echtzeit ankommt, setzen diese Technik ein, zum Beispiel Telekommunikationsanbieter, soziale Netze und Handelsplattformen. Zu den bekanntesten In-Memory-Datenbanksystemen gehören Times Ten (Oracle), Solid DB (IBM), ASE 15.5 (Sybase/SAP), Qlikview (Qliktech) und Gemstone (VMware).