Interview Jürgen Kunz, Oracle

Die Zukunft gehört den integrierten Systemen

18.07.2013
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.

In-Memory-Technik ist nichts Neues

CW: Eine Appliance, die zuletzt für viel Furore im Markt gesorgt hat, ist SAPs HANA. Wie spüren Sie das im Markt?

Kunz: Generell muss man hier festhalten, dass es sich um In-Memory-Technik handelt und die ist nichts Neues. In-Memory-Technik gibt es seit vielen, vielen Jahren. Für einige ist das Thema neu, für andere bereits etabliert - wie bei Oracle. Wir haben 2005 mit TimesTen den zur damaligen Zeit marktführenden Anbieter von In-Memory-Technik gekauft. Seit dieser Zeit ist das eine Technik, die wir im Hause haben und die wir natürlich auch nutzen. Beispielsweise ist In-Memory als Embedded-Technik in die Exa-Strategie mit eingeflossen. Das Exalytics-Portfolio verfügt heute über eine Embedded In-Memory-Technologie. Die einen Firmen entdecken das Thema jetzt gerade, bei den anderen ist es schon Standard.

Oracles Deutschland-Geschäftsführer Jürgen Kunz.
Oracles Deutschland-Geschäftsführer Jürgen Kunz.
Foto: Oracle

CW: Das aber mit großem Erfolg, wenn man sich die HANA-Zahlen so ansieht.

Kunz: Das will ich jetzt nicht kommentieren, ob das ein Erfolg ist.

CW: SAP positioniert HANA als Ersatz klassischer Datenbanken. So wie ich Sie verstanden habe, verwenden Sie In-Memory als ergänzende Technik in ganz bestimmten Anwendungsbereichen. Wo sehen Sie die In-Memory-Technik im Markt?

Kunz: In-Memory gibt in bestimmten Bereichen durchaus Sinn, aber nicht in allen Bereichen. Wir haben die Technik seit acht Jahren im Haus und es ist jetzt nicht so, dass In-Memory die Innovation ist, die alles auf den Kopf stellt. Man muss sich natürlich überlegen, welche Auswirkungen so eine Technik über alle Layer hinweg hat. Bringt es auch wirklich die Mehrwerte, wenn ich das in jedem einzelnen Bereich separat aufsetze? In-Memory eignet sich sicher in einem Analyseumfeld - deshalb auch als Embedded-Technik in der Exalytics. Aber macht die Technik auch wirklich in jedem OLTP-, in jedem Application-Umfeld Sinn? Lässt sich das überhaupt umsetzen, beispielsweise in stark angepassten Umgebungen, wo nicht alles standardisiert ist? Bekommt man dann überhaupt den erhofften Performance-Gewinn?

CW: Das sind ja die Versprechen der SAP: Alles wird einfacher und schneller.

Kunz: Man wird sehen, was am Ende des Tages herauskommt. Wir sagen: Das macht in manchen Bereichen Sinn, aber nicht in jedem. Wenn wir glauben würden, dass der Einsatz überall sinnvoll ist, dann hätten wir In-Memory überall als Embedded-Technik implementiert.

Big Data ist nicht mit In-Memory gleichzusetzen

CW: Jetzt nehmen allerdings gerade die Big-Data-Projekte in den Unternehmen allmählich Fahrt auf. Das Thema stand ja vor sieben Jahren noch nicht auf der Tagesordnung.

Kunz: Wenn man Big Data mit In-Memory gleichsetzen würde, wäre das ein Riesenfehler. Big Data ist die große Überschrift. Aber man muss sich genau fragen: Was steht eigentlich dahinter? Viele CIOs sehen das Thema ganz pragmatisch: Früher hat sich das Transaktionsvolumen alle 18 Monate verdoppelt, heute passiert das alle sieben Monate - damit muss man klarkommen - Punkt. Andere sehen das Thema eher aus dem Content-Blickwinkel. Hier bieten sich Möglichkeiten, komplett neue Services aufzusetzen, über die man sich im Markt gegenüber dem Wettbewerb differenzieren könnte. Aus deren Sicht ist das Thema Big Data sehr stark Content-getrieben.

CW: Wie sieht das konkret in der IT-Praxis aus?

Kunz: Diese Kunden haben einen Datentopf, der mit strukturierten und unstrukturierten Daten gefüllt ist, und den sie mit der größtmöglichen Flexibilität auswerten wollen. Technisch liegt die Herausforderung darin, dass die meisten mit ihrer bestehenden Infrastruktur- und Applikationsplattform Big Data nicht machen können. Das würde alles sprengen. Also müssen sie einen Weg finden, die Daten so aufzubereiten, dass sich daraus Content ableiten und Services entwickeln lassen. Das kann man dann in einem CRM-System umsetzen beziehungsweise über eine Schnittstelle einfließen lassen. Die Volumina, über die wir hier sprechen, lassen sich allerdings in den heute bestehenden CRM-Systemen nicht handeln. Damit würde man die bestehende Infrastruktur komplett aufblähen. Das ist einfach eine völlig andere Dimension, die hier ins Spiel kommt. Zudem verändern sich diese Services auch permanent - gerade im Consumer-Segment.

CW: Müssen sich die Unternehmen überlegen, wie sie dafür ihre Prozesse neu aufstellen?

Kunz: Das ist gerade die Frage, ob sie das tun. Ich kenne viele Unternehmen, die sagen: Genau das machen wir jetzt nicht. Wir werden nicht unsere komplette Prozesslandschaft umstellen, weil wir eventuell neue Tendenzen von neuen Services sehen. Das würde aus deren Sicht viel zu lange dauern und ist viel zu starr. Das Thema, flexibel auf die Anforderungen zu reagieren, den Content neu zu entwickeln und ihn auch permanent zu verändern, das sind die spannenden Fragen. In einem Backoffice, wie es heute in den meisten Firmen etabliert ist, ist so etwas gar nicht machbar. Dort laufen SCM-Prozesse - die sind fix etabliert mit den Lieferanten. Aber alles, was Consumer-orientiert ist, kann man heute nicht mehr fest verdrahten - bei der Flexibilität, die in diesem Umfeld notwendig ist.

CW: Es fehlt also die notwendige Flexibilität?

Kunz: Absolut. Aus Sicht der Unternehmen ist es einmal ein Volumenthema, weil es die Systeme immens aufblähen würde. Zum anderen würde die dafür notwendige Veränderung der Prozesse viel zu lange dauern. Also braucht es ein System außerhalb der etablierten Struktur, das sich aber lose ankoppeln lässt, wenn es notwendig ist. Und das ist aus technischer Sicht eine hochspannende Geschichte.

CW: Der Markt bietet eine Fülle verschiedenster Big-Data-Techniken und -Werkzeugen. Verliert man da als Anwender nicht leicht den Überblick und weiß letztendlich gar nicht, was man am besten einsetzen sollte?

Kunz: Das bewertet letztlich jedes Unternehmen anders. Aus einer strategischen Perspektive suchen die Unternehmen nach Lösungen für die besagten Herausforderungen: Das sind die Reduktion der Komplexität und innovative Prozesse. Ich glaube, dass an dieser Stelle derzeit ein gewisser Paradigmenwechsel zu beobachten ist. Dabei meine ich nicht nur den Appliance-Ansatz in technischer Hinsicht, sondern auch die anderen Layer von der Prozess- über die Applikations- bis zur Infrastrukturebene. Die Unternehmen müssen das komplett durchdenken und das tun sie derzeit auch. Deshalb springen auch die anderen IT-Anbieter auf den Appliance-Zug mit auf. Das tun sich nicht, weil sie die Idee interessant finden, sondern weil sich die Kunden damit beschäftigen. Sie setzen sich immer stärker mit integrierten Systemen auseinander und denken bei Appliance-Lösungen in anderen Dimensionen, als das vielleicht früher der Fall war.

CW: Welche Rolle spielen dabei für Sie Techniken wie Hadoop und NoSQL?

Kunz: Die haben wir selbst auch im Haus, aber auch hier muss man unterscheiden: Wenn es als Embedded Technik in das Portfolio beim Kunden hineinpasst, dann machen wir das natürlich genauso, wie mit den klassischen Produkten. Wir haben auf allem Ebenen ein Portfolio, das Open-Source-Lösungen unterstützt.