SAP-Technologie

In-Memory-Computing - zwischen IT-Beschleuniger und Nische

01.06.2012
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

Trennung OLTP - Olap gibt Sinn

Ingo Brenckmann, Program Director SAP: "Die Trennung zwischen OLTP- und Olap-Systemen löst sich allmählich auf."
Ingo Brenckmann, Program Director SAP: "Die Trennung zwischen OLTP- und Olap-Systemen löst sich allmählich auf."
Foto: SAP

Grundsätzlich hält Stürner die Trennung von OLTP und Olap für sinnvoll. Es möge aus seiner Sicht zwar Anwendungen geben, für die Hybridsysteme passten. Demgegenüber eigneten sich spezielle Auswertungen jedoch nur für eine optimierte Datenstruktur in Olap-Systemen. Außerdem hätten Anwender meist unterschiedliche Anforderungen an die Systeme. Für ein Business-kritisches OLTP-System herrschten beispielsweise andere Verfügbarkeitskriterien als für ein Warehouse, das sich im Grunde jederzeit wieder aus dem OLTP-System aufbauen lässt. "Schwarz-weiß wird es deshalb nicht geben", lautet sein Fazit.

Auch die Konkurrenz hat deshalb spezielle Lösungen im Programm. Oracle bietet mit "Times Ten" eine zeilenbasierende In-Memory-Datenbank an und positioniert im DW-Umfeld "Exadata" als Highend-Appliance für OLTP und Olap. Auch IBM offeriert verschiedene In-Memory-Lösungen in diesem Umfeld: "Solid DB" für das OLTP-Umfeld, "TM1" für Multidimensionales Olap (Molap) und den Informix Warehouse Accelerator für relationales Olap (Rolap).

Allerdings sieht auch Andreas Weininger, BI- und Datenbankspezialist von IBM, In-Memory nicht als alleinige Lösung für alle Probleme. Gerade für großvolumige Warehouses im Petabyte-Bereich seien die Disk-basierenden relationalen DB-Systeme weiterhin gesetzt. Trotz sinkender Memory-Preise würden die Anwender ab einer bestimmten Kapazität eine Kostengrenze ziehen.

Grundsätzlich verweist aber auch der IBM-Manager auf die Veränderungen im Data-Warehouse-Umfeld. "Haben die Anwender vor 15 Jahren ihr DW einmal im Monat geladen, gibt es heute kaum mehr einen Kunden, der das nicht täglich tut." Der Wunsch nach mehr Echtzeitfähigkeit sei nicht zu verkennen. Gleichzeitig ständen geringerer Tuning- und Administrationsaufwand sowie bessere Performance auf der Prioritätenliste der Anwender weit oben. Dafür sei In-Memory eine interessante Option. Zwar lasse sich auch in traditionellen Datenbanksystemen im Grunde vieles In-Memory cachen. Dennoch seien die Lösungen darauf ausgelegt, die Daten blockweise von einer Festplatte zu holen. Dagegen kämen im Zuge von In-Memory-Datenbanken Algorithmen zum Einsatz, die speziell für diese Technik ausgelegt seien und Leistungsvorteile böten. Hier verschiebe sich die Speicherhierarchie, erläutert Weininger: "Was früher Disk war, ist jetzt der Hauptspeicher, und was früher RAM war, ist heute der CPU-Cache."

"Die klassischen DB-Anbieter achten jedoch eher darauf, ihr bestehendes Geschäft mit herkömmlichen Systemen zu schützen", meint Tristan Werner, Experte für das Thema In-Memory bei Accenture. Ob diese Hersteller dem aus Walldorf forcierten Hype folgen, könne man derzeit schwer beurteilen. Aus SAP-Sicht sei es jedoch nur konsequent, an dieser Stelle eigene Technik zu pushen. Schließlich laufe der Großteil der SAP-Installationen auf Datenbanken von Oracle und IBM. Mittelfristig sei es sicher das Ziel, Datenbanken durch In-Memory-Technik zu ersetzen. Werner rechnet mit völlig neuen Möglichkeiten der Softwarenutzung und in der Folge auch mit einer neuen Generation der Business Suite.