HPE-Chef im Interview

Antonio Neri: Wir haben den Innovationsmotor neu gestartet

28.05.2019
Von Eric Knorr

VMs auch wieder abschalten

Wie wichtig sind den Kunden die wirtschaftlichen Aspekte?

Neri: Wenn man sich die Wirtschaftlichkeit der Systeme ansieht, geht es heute längst nicht mehr nur um die Compute-Kosten. Heute spielen die Kosten für die Übertragung von Massendaten eine immer größere Rolle. Deshalb ist die erste Frage, die ein Kunde stellt: Wo soll ich meine Daten ablegen? Das bestimmt dann eine Menge anderer Dinge. Denn heute ist die Rechnung für die Datenübertragung weitaus höher als für die Miete einer VM.

Eine andere Sache ist: In der Public Cloud können Sie ganz einfach eine VM starten. Wenn Sie diese aber nicht auch wieder ausschalten, läuft die Rechnung immer weiter. Wir haben im Rahmen unserer Composable Infrastructure die Möglichkeit geschaffen, VMs automatisch abzuschalten. Es geht darum, Multi-Workloads in derselben Infrastruktur ausführen zu können - sei es Bare Metal, Virtualisierung oder Containerisierung. Es heißt komponierbar, weil die Softwareschichten so intelligent sind, dass sie für jeden Workload die richtigen Lösung aus Compute-Power, Storage, Fabric und Arbeitsspeicher zusammenstellen. Wenn etwas nicht mehr gebraucht wird, wird es einfach wieder zurückgegeben.

Gibt es auf der reinen Hardwareebene überhaupt noch Potenzial für weitere Innovation?

Neri: Wenn man davon ausgeht, dass Daten im Mittelpunkt künftiger Architekturen stehen, dann wird ein CPU-zentrierter Ansatz nicht mehr weiterführen. Deshalb denken wir über Memory-driven Computing nach.

Es gibt jede Menge Ineffizienz, wenn sich Daten über das System hin und her bewegen. Dabei wird übrigens auch viel Energie verschwendet. Was wir nun im Grunde genommen tun, ist das Ganze nach 70 Jahren neu zu strukturieren. Wir nehmen Memory und Storage und kombinieren beides in einem zentralen Pool, der nichtflüchtig ist und zum Kern der Architektur wird. Und dann bringen wir noch die passende Rechenleistung zu den Daten.

In einem KI-Anwendungsfall muss man die Daten nun nicht mehr verschieben. Man bringt Accelerator oder Graphic Processing Units (GPUs) zu den Daten. Für allgemeine Anwendungszwecke lässt sich eine x86-Architektur verwenden, und vielleicht nutzt man für Video-Transcodierung eine ARM-basierte Architektur. Das Charmante dabei ist, man kann dies auf Zettabytes von Daten anwenden, und der Vorteil ist: Man braucht nur sehr wenig Energie, um so ein System am Laufen zu halten, und es ist persistent.

Lesen Sie mehr zum Thema HPE:

Wir nennen dies die "Generation Z Fabric", die auf einer Data-Fabric und Silizium-Photonik basiert. Das klassische Kupfer erzeugt viel Abfall und Wärme und verbraucht viel Energie. Deshalb gehen wir zur Silizium-Photonik über. So können wir nicht nur auf Zettabyte-Ebene skalieren, sondern auch riesige Mengen an Berechnungen durchführen. Wir bringen damit genau das richtige Maß an Compute-Power an den Start, das für die Daten erforderlich ist. Außerdem lösen wir damit noch das Kostenproblem: Kupfer kostet heutzutage viel Geld, und vergoldete Anschlüsse sind auch nicht gerade billig

Wir werden diese Features der Silizium-Photonik in unseren aktuellen Architekturen bis Ende des Jahres implementieren. In den Synergy-Systemen zum Beispiel, einem Composable Bladesystem, können Anwender auf der Rückseite des Racks von Ethernet auf Silizium-Photonik wechseln. Wir haben dies bereits in einem einfachen 2HE-Gehäuse mit 160 TB Speicher und 2000 Kernen als Prototypen ausprobiert. Damit konnten wir eine Milliarden-Datensatz-Datenbank mit 55 Millionen Kombinationen von Algorithmen in weniger als einer Minute verarbeiten.

Sie konzentrieren sich also nicht nur auf den Edge-Bereich, sondern auch auf den Kern?

Neri: Wenn Sie das Ganze von der Cloud bis zum Edge denken, dann skaliert diese Architektur tatsächlich bis ins Kleinste. Man kann sie im großen Stil oder im kleinen Rahmen anwenden. Wir werden diese Technologien jetzt in unseren Systemarchitekturen implementieren. Allerdings muss sich auch noch ein Ökosystem entwickeln. Wir brauchen Softwarehersteller, die Anwendungen für diese neue Welt entwickeln - ansonsten werden die Vorteile nicht ausgeschöpft. Außerdem kann der aktuelle Linux-Kernel nur mit einer begrenzten Menge an Memory umgehen. Deshalb müssen wir den Kernel neu schreiben. Dazu arbeiten wir mit zwei Universitäten zusammen.

Die Hardware wird sich weiterentwickeln, aber es ist noch viel F&E zu leisten Was uns ehrlich gesagt derzeit bremst, ist die Software.

Und da fließt ein Großteil Ihrer Investitionen hin?

Neri: Richtig - in die Systemsoftware, nicht in die Anwendungssoftware. Es ist die Systemsoftware, die diese Infrastruktur lösungsorientiert, Workload-optimiert, autonom und effizient macht. (ba)