In-Memory

HANA - Weckruf für die Datenbank-Konkurrenten

01.03.2013
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Mit HANA hat SAP neuen Schwung in den Markt für Datenbanken und Data Warehouses gebracht. Anwender sollten jedoch nicht vergessen, dass die In-Memory-Technik nicht das einzige Werkzeug für Big Data ist.
Der Streit zwischen Oracle und SAP verschärft sich. Thomas Kurian von Oracle (li.) kritisierte HANA als technisch lückenhaft und überteuert. SAPs Technikchef Vishal Sikka (re.) kontert: Die Attacke zeige nur, das Oracle Angst habe.
Der Streit zwischen Oracle und SAP verschärft sich. Thomas Kurian von Oracle (li.) kritisierte HANA als technisch lückenhaft und überteuert. SAPs Technikchef Vishal Sikka (re.) kontert: Die Attacke zeige nur, das Oracle Angst habe.
Foto: Oracle; SAP

Die SAP-Verantwortlichen blasen zum Angriff auf den Datenbankmarkt. Mit HANA wollen die badischen Softwerker den Turbo für Reporting und Analytics zünden sowie klassische relationale Datenbanken bei den Kunden ablösen. Letzteres zielt in erster Linie auf Oracle. Nach wie vor laufen rund drei Viertel aller SAP-Installationen weltweit auf einer Oracle-Datenbank.

Die Reaktion des Erzrivalen ließ denn auch nicht lange auf sich warten. Thomas Kurian, Executive Vice President für die Produktentwicklung bei Oracle, verglich im vergangenen Jahr die Lösungen und behauptete, HANAs Technik weise eklatante Lücken auf, was beispielsweise die SQL-Unterstützung und die Verarbeitung unstrukturierter Daten angehe. Auch das Pricing nahm der Oracle-Manager aufs Korn. Ein HANA-System mit 1 TB RAM kostet seiner Rechnung zufolge 3,75 Millionen Dollar, während die eigene Exalytics-Maschine gleichen Kalibers auf nicht einmal 700.000 Dollar komme. SAPs Technikvorstand Vishal Sikka wies die Vorwürfe technischer Lücken zurück. Außerdem sei nicht nachvollziehbar, wie Oracle die Preise rechne. Die Attacke zeige, wie ernst der Konkurrent offenbar die Bedrohung nehme.

Dass HANA die Konkurrenz im Markt für Datenbank-, Data-Warehouse-(DW-) und BI-Technik aufgerüttelt hat, ist nicht von der Hand zu weisen. Anders ist nicht zu erklären, dass gerade große Datenbankkonzerne wie Oracle und IBM mit einem Mal eigene Techniken jenseits ihrer großen Datenbanksysteme aus dem Hut zauberten, die bis dato in einer Ecke des Portfolios geschlummert hatten. Oracle brachte beispielsweise seine "Exalytics"-Appliance, die mit der eigenen In-Memory-Datenbank "TimesTen" arbeitet, ins Spiel, um Reporting und Analysen zu beschleunigen. IBM verbreiterte sein Portfolio in Sachen Datenbank und Data Warehouse, das unter anderem die In-Memory-Datenbank "Solid DB" sowie verschiedene Appliances aus der "PureSystems"-Familie umfasst. Die Konkurrenz mit SAP sieht man bei IBM aber pragmatisch. Bei HANA kooperiert der Konzern mit den Walldorfern und hat einen eigenen HANA-Server im Programm.

Hardware allein ist nicht die Lösung

Teradata, ein Konkurrent SAPs in Sachen Data Warehouse (DW), warnt indes davor, in der In-Memory-Technik und immer leistungsstärkerer Hardware die Lösung aller Performance-Probleme zu sehen. So müsste eine Kopie der Daten schon aus Persistenzgründen auch auf klassischen Disk-Systemen vorgehalten werden, schrieb zuletzt Martin Willcox, Marketing Director von Teradata, in seinem Blog. Außerdem gehe es nicht nur um schnellere Zugriffszeiten. Gerade die komplexen Abfragen erforderten einen effizienten Einsatz der CPU-Power, beispielsweise durch eine möglichst intelligente Parallelisierung der Workloads. Zudem könne eine In-Memory-Lösung die Kunden angesichts der rasant wachsenden Datenmengen letztlich ziemlich teuer kommen, auch wenn die RAM-Preise weiter fielen. Der Data-Warehouse-Spezialist hat zwar selbst eine Reihe verschiedenster DW-Appliances im Programm, verfolgt aber eher den Ansatz, die Herausforderungen im Daten-Handling mit Hilfe von Softwaretechnik in den Griff zu bekommen. Dabei kombiniert Teradata eigene Produkte wie seine Datenbank "Aster" und externe Entwicklungen, beispielsweise das Hadoop-Framework, das über den Map-/Reduce-Algorithmus parallelisierte und damit performante Datenanalysen verspricht.

Doch auch bei SAP scheint man mittlerweile verstanden zu haben, dass proprietäre Technik, die sich von anderen Entwicklungen abkapselt, heute nicht mehr gefragt ist. Franz Färber, verantwortlich für die HANA-Entwicklung bei SAP, kündigte zuletzt ebenfalls einen Hadoop-Anschluss an. Damit werde es möglich sein, mit HANA Hadoop-Daten zu lesen und auch in Hadoop zu schreiben. Die SAP-eigene Programmierkunst bewertet Färber allerdings nach wie vor höher. Um Algorithmen intelligent zu parallelisieren reiche es nicht, einfach Map-/Reduce darüberzustülpen. (ba)