Engineered System oder Zukäufe

Big-Data-Strategien von SAP und Oracle

Dr. Andreas Schaffry ist freiberuflicher IT-Fachjournalist und von 2006 bis 2015 für die CIO.de-Redaktion tätig. Die inhaltlichen Schwerpunkte seiner Berichterstattung liegen in den Bereichen ERP, Business Intelligence, CRM und SCM mit Schwerpunkt auf SAP und in der Darstellung aktueller IT-Trends wie SaaS, Cloud Computing oder Enterprise Mobility. Er schreibt insbesondere über die vielfältigen Wechselwirkungen zwischen IT und Business und die damit verbundenen Transformationsprozesse in Unternehmen.
Die ERP-Marktführer Oracle und SAP feilen an ihren Big-Data-Angeboten. Analysten von Experton und Gartner erläutern die Schwerpunkte und Strategien der beiden Softwarehersteller, die auf die Big-Data-Platzhirsche IBM und SAS Boden gut machen wollen.

In fast jedem Unternehmen fallen heute neben zahlreichen strukturierten Daten auch zahllose unstrukturierte Informationen aus sozialen Medien, Videos, Präsentationen, Texten, Sensoren an Maschinen, Barcodes, RFID-Chips oder Geo-Daten an. Diese Datenmengen steigen stetig - Big Data eben. 2012 soll die weltweite Datenproduktion laut einer Studie des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (IAIS) 1,8 Zettabyte betragen haben.

Aus Daten verborgene Zusammenhänge lesen

Holm Landrock: Die Big-Data-Angebote von Oracle und SAP sind technisch zwar ausgereift, können den Produkten der Leader IBM und SAS aber nicht das Wasser reichen.
Holm Landrock: Die Big-Data-Angebote von Oracle und SAP sind technisch zwar ausgereift, können den Produkten der Leader IBM und SAS aber nicht das Wasser reichen.
Foto: Experton Group

Big Data ist aber nicht nur mit einer großen Menge fragmentierter Daten gleichzusetzen, es schließt auch die hohe Geschwindigkeit ein mit der die Daten entstehen, wie etwa beim elektronischen Ablesen von Stromzählermessdaten im Viertelstundentakt. Auch durch die Nutzung sozialer Medien werden täglich große Datenmengen produziert - allein bei Twitter sind es mehr als 8 Terabyte (TB). "Unternehmen, die geschäftlichen Mehrwert aus Big Data ziehen wollen, müssen in der Lage sein, große und fragmentierte Datenmengen zu sammeln, sinnvoll zu verwalten, und die Daten so miteinander verknüpfen und in Beziehung setzen, dass sich daraus neue Einsichten gewinnen oder verborgene Zusammenhänge erkennen lassen", sagt Holm Landrock, Senior Advisor bei der Research- und Beratungsfirma Experton Group.

Das ist zum Beispiel der Fall, wenn Handelsunternehmen Daten aus Interaktionen von Kunden auf den verschiedenen Kontaktkanälen mit Kundenäußerungen auf sozialen Netzwerken wie Facebook oder Twitter verknüpfen, explorieren und auswerten. Die gewonnenen Erkenntnisse lassen sich nutzen, um die Kundensegmentierung feinmaschiger zu gestalten, Marketing-Kampagnen präziser zu planen und auszuführen, sowie die Preisfindung und Bestandsverwaltung zielgerichteter zu gestalten. Damit aus der unübersichtlichen Datenmasse geschäftlich relevantes Wissen erschlossen und zugleich sehr zeitnah, das heißt nahezu in Echtzeit, analysiert werden kann, sind neue Ansätze und Technologien für die Datenspeicherung und Business Analytics nötig.

Big-Data-Ansätze von SAP und Oracle variieren

Alexander Linden: Das Big-Data-Portfolio von Oracle ist organisch gewachsen. SAP setzt wegen des späten Einstiegs in den Big-Data-Markt auf Zukäufe und Kooperationen.
Alexander Linden: Das Big-Data-Portfolio von Oracle ist organisch gewachsen. SAP setzt wegen des späten Einstiegs in den Big-Data-Markt auf Zukäufe und Kooperationen.
Foto: Alexander Linden

Alle namhaften Softwarehersteller feilen daher an Big-Data-Angeboten, weil sie hier neues Umsatzpotenzial wittern. Neben IBM, Hewlett-Packard, Dell oder SAS zählen dazu natürlich auch die Dauerrivalen Oracle und SAP. Beide Unternehmen verfolgen bei ihren Angeboten zur Verwaltung und Analyse von Big Data jedoch unterschiedliche Ansätze.

"Oracle geht das Thema von der Datenbankebene aus an, SAP kommt von der Anwendungsebene und fokussiert sich bei Big Data auf seine In-Memory-Technik", erklärt Alexander Linden, Research Director für Advanced Analytics und Data Science beim Research- und Beratungshaus Gartner.

IBM und SAS haben die Nase vorn

Einig sind sich Experton-Berater Landrock und Gartner-Analyst Linden, dass Oracle und SAP im Big-Data-Markt derzeit nicht die erste Geige spielen, sondern deutlich hinter IBM oder SAS rangieren. Das zeigen auch die Ergebnisse des von Experton durchgeführten "Big Data Vendor Benchmark 2013". Ebenso werden in der aktuellen "Managing-Big-Data-Studie" des Data Warehousing Institute (TDWI) weder Oracle noch SAP als "Leader" bezeichnet. Dennoch lohnt sich ein Blick auf die Angebote der Erzrivalen.

Engineered-System-Prinzip von Oracle

Oracle bietet eine Big-Data-Appliance an, die aus verschiedenen Softwarekomponenten und vorkonfigurierter Hardware besteht. "Grundgedanke in der Big-Data-Strategie von Oracle ist, das Datenwachstum der kommenden Jahre durch ein Engineered System zu bewältigen", verdeutlicht Landrock. Das heißt: Big Data wird in eine bestehende IT-Architektur einbezogen, die laufend weiterentwickelt wird. Hardwareseitig ist die Oracle-Appliance zurzeit standardmäßig als Rack mit 18 Sun-Servern konfiguriert und hat eine Gesamtspeicherkapazität von 648 TB.

Softwareseitig setzt der US-Konzern auf seine NoSQL-Datenbank in der "Community Edition" und die "Cloudera Distribution for Hadoop" (CDH4) als Tool-Sammlung zur Installation von Hadoop-Komponenten sowie den "Cloudera Manager" zur Verwaltung und Kontrolle der Hadoop-Cluster. Auch die freie Programmiersprache "R" für statistische Analysen ist integrierter Bestandteil der Appliance. Als Betriebssystem dient der Oracle-Linux-Server in Verbindung mit der Java Virtual Machine des Herstellers.

Konnektoren für Exadata und Hadoop

Hinzu kommen spezielle Konnektoren, etwa für den Datentransfer in Oracles Exadata-Datenbankplattform, um dort Big-Data-Analysen mit dem hauseigenen Exalytics-Business-Intelligence-(BI-)-System betreiben zu können. Über weitere Konnektoren soll es möglich sein, Daten aus einem Hadoop-Cluster in die Oracle-Datenbank zu laden und in dieser zu analysieren oder mit "R" statistische Problemstellungen direkt im Hadoop-Cluster per MapReduce zu beantworten.

"Oracle bringt viel Know-how im Bereich Business Analytics und Data Mining mit, betrachtet Big Data jedoch zu stark aus der Datenbankperspektive. Die Datenbank wird damit aber zum Flaschenhals, da alle für Big-Data-Analysen notwendigen Daten in sie übertragen und gespeichert werden müssen", moniert Gartner-Analyst Linden. Das sei jedoch ein schwieriges Unterfangen, weil dann unter anderem auch Informationen aus sogenannten Makroaktionen in die Datenbank zu bringen seien. Unter Makroaktionen versteht Linden Ereignisse in einem Unternehmen, wie zum Beispiel die Änderung einer Hotline-Nummer.

SAP: Big Data mit HANA, Sybase, Data Services & Co.

SAP habe hingegen die Chance, die Datenbankproblematik zu umgehen, da das Unternehmen das Thema Big Data von der Applikationsebene her angeht, meint Linden. Der Walldorfer Softwarehersteller sei allerdings erst spät in den Big-Data-Markt eingestiegen und laufe nun der Entwicklung hinterher. SAP selbst bezeichnet seine eigene Big-Data-Plattform als "Realtime-Data-Platform". Im Zentrum der Big-Data-Strategie steht die In-Memory-Lösung SAP HANA. Sie kann bei Bedarf mit Sybase-Produkten wie dem Analyse-Server Sybase IQ, dem Datenbanksystem Sybase ASE oder mit Hadoop verknüpft werden. Große Datenströme lassen sich in der Big-Data-Architektur von SAP mit dem Sybase Event Stream Processor (ESP) prozessieren und auswerten, um nahezu in Echtzeit auf veränderte Ereignisse reagieren zu können.

Einen weiteren zentralen Baustein im Big-Data-Angebot bilden die Data Services von SAP. Damit können beliebige Daten aus unterschiedlichen Datenspeichern extrahiert, transformiert und dann für Analysezwecke in HANA oder Sybase IQ geladen werden. Mit HANA lassen sich strukturierte Daten, etwa Absatzzahlen, sowie unstrukturierte Informationen wie Twitter-Feeds gleichzeitig analysieren, mit dem Ziel, verborgene Korrelationen aufzudecken. Die In-Memory-Lösung enthält zudem eine Predictive Analysis Library (PAL), die vordefinierte Algorithmen für die Bereiche Clustering, Klassifikation, Assoziation, Zeitreihen, Datenvorverarbeitung (Preprocessing), Social-Network-Analysen und Verschiedenes (ABC-Klassifikation, gewichtete Bewertungstabellen) bereitstellt. Die Einbindung von "R" erweitert die analytischen Fähigkeiten von HANA zusätzlich.

Inhalt dieses Artikels