HPE-Chef im Interview

Antonio Neri: Wir haben den Innovationsmotor neu gestartet

28.05.2019 von Eric Knorr
Mit Edge-Computing, Composable Infrastructure und einer neuen Compute-Architektur will Antonio Neri Hewlett Packard Enterprise (HPE) neu ausrichten. Unser US-Kollege Eric Knorr sprach mit dem HPE-CEO.

Antonio Neri bezeichnet sich selbst gerne als Ingenieur. Der Manager, der als eine Art "Local Hero" bei HPE gilt, begann seine Karriere vor fast 25 Jahren und verdiente sich unter anderem als technischer Vordenker seine Sporen. Meg Whitman, seine ehemalige Chefin bei HPE, beförderte ihn 2015 zum Executive Vice President und gab ihm grünes Licht für die Übernahmen von Aruba, SimpliVity, Flink Storage und Plexxi. Im Februar 2018 hat Neri Whitman als CEO bei HPE abgelöst.

Für Antonio Neri, CEO von HPE, geht es unter anderem darum, eine neue Daten-zentrierte Computerarchitektur zu etablieren.
Foto: HPE

Neri hat die dramatische Teilung des IT-Pioniers miterlebt. Seine größte Herausforderung besteht heute darin, die 66.000 Mitarbeiter von HPE nach Jahren turbulenter Veränderungen zu motivieren und kreativ zu halten.

Auf Basis seiner langen Firmenzugehörigkeit hat Neri eine technische Vision für HPE entwickelt, die sich auf Edge Computing und die sogenannte "Composable Infrastructure" konzentriert. Allein in Edge Computing hat HPE über vier Jahre hinweg rund vier Milliarden Dollar investiert.

Obwohl das Unternehmen seine Public Cloud-Bemühungen im Jahr 2015 aufgegeben hat, glaubt Neri an eine "Self-Service-Cloud-Experience", die der Konzern seinen Kunden in einem Software-defined und verbrauchsabhängig abgerechneten Modell andient. Aus seiner Sicht steht die Branche zudem vor einer Hardwarerevolution, in der Storage und Arbeitsspeicher verschmelzen und je nach Anwendungsfall verschiedene Compute-Engines Zettabytes an Daten verarbeiten können.

Wie Neri HPE ausrichten will und welche neuen Computing-Paradigmen auf die Branche zukommen, erläuterte der Manager im Gespräch mit Eric Knorr, Chefredakteur von IDG Enterprise in den USA.

In einem früheren Interview haben Sie gesagt, dass Sie und Meg Whitman die Innovation bei HP erst neu starten mussten.

Neri: Ja, das ist richtig.

Warum gab es keine Innovation mehr? Wie haben Sie den Motor neu gestartet und eine Kultur geschaffen, die Innovationen unterstützt?

Neri: Nun - eigentlich haben wir nie mit Innovationen aufgehört. Aber es gab keine Nachhaltigkeit bei den Investitionen für langfristige Innovationen. Wenn sich in zwölf Monaten drei CEOs die Klinke in die Hand geben, ist das ein Problem (Mark Hurd bis August 2010 - Léo Apotheker bis September 2011 - Meg Whitman ab September 2011; Anm. d. Red.). Als Meg an Bord kam, hatte sie ein massives Problem: Uns drückten zwölf Milliarden Dollar Schulden. Als sie ging, standen zehn Milliarden Dollar auf der Habenseite. Wir haben "HPE Next" eingeführt. Bei dem Programm ging es darum, das Unternehmen von innen heraus neu aufzustellen. Und wir haben in Forschung und Entwicklung investiert.

Nach der Aufspaltung des Konzerns hat Ex-HPE-CEO Meg Whitman das Steuer im Februar 2018 an Antonio Neri übergeben.
Foto: HPE

Bezüglich Innovationen denke ich in drei Spielarten: organisch, anorganisch und durch Partnerschaften. Natürlich ist organisch unser bevorzugter Weg. Jeder Dollar, den wir selbst verdienen, ist besser für die Aktionäre - zum Beispiel mit HPE Synergy, HPE OneView, HPE Apollo oder HPE Superdome Flex In-Memory Computing. Deshalb werden wir an dieser Stelle weiter investieren.

Auf der anorganischen Seite habe ich zwölf Übernahmen getätigt, angefangen mit Aruba im Jahr 2015 und zuletzt BlueData Software. Das ist wichtig: Um Innovationen zu beschleunigen, benötigen Sie geistiges Eigentum und Talent.

Der dritte Aspekt ist das Partner-Ökosystem. Zum Beispiel haben wir vor kurzem angekündigt, mit Nutanix in Sachen Private Cloud zusammenzuarbeiten. Mit unserer Initiative "HPE Pathfinder" kuratieren wir im Grunde genommen disruptive Lösungen anderer Unternehmen. Anstatt diese zu kaufen, investieren wir in sie und lassen sie unabhängig weiterarbeiten. Wir integrieren ihre Lösungen in unser Portfolio - zum Beispiel Cohesity, Scality und WekaIO.

Was haben Sie sonst noch getan, um das Innenleben Ihres Unternehmens zu reformieren?

Neri: Wir haben in unsere IT investiert. In den vergangenen 15 Jahren mit all den Strategiewechseln, Abspaltungen und Fusionen haben wir uns nie wirklich um die Modernisierung der eigenen IT-Infrastruktur gekümmert. Als ich HPE Next einführte, hatten wir elf ERP-Systeme im Unternehmen, die teilweise noch bis zur Compaq-Fusion zurückreichten. Bis Ende 2020 werden wir ein einziges zentrales ERP haben. Früher betrieben wir 23 Stammdatensysteme, heute gibt es nur noch eines. Wir werden eine E-Commerce-Plattform und ein Quote-to-Cash-System haben.

Sie sind jetzt seit etwas mehr als einem Jahr in Ihrer neuen Position. Was hat Sie am meisten überrascht?

Neri: Es gab keine wirkliche Überraschung, denn es war ein gesteuerter Übergang. Meg und ich haben schließlich gemeinsam an der Strategie für das Unternehmen gearbeitet.

Ich glaube, dass mich unsere Mitarbeiter unterstützen, weil ich aus ihren Reihen komme. Ich trinke ein Bier mit ihnen und sie wollen ein Foto mit mir machen. Ich bin nicht der CEO, der über allen schwebt. Ich trage Jeans und Turnschuhe oder was auch immer. Das schafft Vertrauen: Der CEO ist einer von uns, er spricht mit uns, er ist bei uns.

Herumlaufen fördert die Kreativität

Management durch Herumlaufen?

Neri: Das ist nur ein Teil. Aber es gefällt mir, weil es die Kreativität fördert. Ehrlich gesagt - der ärgerlichste Teil des CEO-Daseins ist, dass es der einsamste Job auf dem Planeten ist. Alles hängt an dir. Das ist in Ordnung - dafür werde ich bezahlt. Die andere Herausforderung ist die Öffentlichkeit. Als First-Time-CEO muss man erst noch die Tricks lernen, wie man in der Öffentlichkeit redet. Ich möchte am liebsten so transparent wie möglich sein. Aber das funktioniert manchmal nicht. Also musst man das richtige Gleichgewicht finden.

Mit was verbringen sie die meiste Zeit?

Neri: Mit Kunden und Partnern sprechen und mich um Innovationen zu kümmern.

HPE investiert massiv in das Edge Computing. Was versprechen Sie sich davon?

Neri: Das hat zwei Aspekte. Wir konzentrieren uns zunächst auf die Konnektivität. Denken Sie an Aruba als Plattform- und als Cloud-enabled Unternehmen (HP - damals noch ein gemeinsames Unternehmen - hat Aruba im März 2015 für 2,7 Milliarden Dollar übernommen, Anm. d, Red.). Außerdem bieten wir Branchenlösungen und Edge-Rechenzentrumslösungen an, die Wireless, LAN, WAN-Konnektivität und bald 5G umfassen. So stellen wir unseren Kunden eine Steuerungsebene zur Verfügung, auf der sie ihre Vernetzung konsistent darstellen können. Das umfasst auch die gesamte Richtlinienverwaltung, die Bereitstellung und die Sicherheitsaspekte.

Wie wichtig ist 5G für Sie?

Neri: Sehr wichtig. Unsere Kunden sagen uns, dass es teilweise schwierig für sie ist, 5G in ihre Gebäude und Anlagen zu bekommen. Außerdem geht es darum, unterschiedliche Techniken wie 5G und Wi-Fi richtig zu handhaben. Das Problem liegt darin, dass LAN, Wireless und WAN bereits vollständig in die Steuerungsebene integriert sind, 5G aber einen Layer höher ansetzt. Unternehmen müssen also diese beiden Welten unabhängig voneinander verwalten.

Lesen Sie mehr zum Thema 5G:

Unsere Kunden verlangen ein einheitliches Policy Management und Cloud-Enablement, damit sie die richtige Konnektivität für den richtigen Use Case bereitstellen können. Ein Sensor beispielsweise kann einen Funkkontakt, Bluetooth oder eine andere Art von Konnektivität verwenden, abhängig von der Verbindungsdauer und der benötigten Energieleistung.

In einigen Fällen packt man eine SIM-Karte für 5G dazu, in anderen Fällen nutzt man einfach eine drahtlose Verbindung. Wi-Fi-Konnektivität ist deutlich kostengünstiger als 5G. Die Anwendungsfälle bestimmen, welche Art von Konnektivität Sie benötigen. Und das können wir erfüllen, weil wir eine eigene Plattform haben und außerdem Partnerschaften mit Managed Service Providern (MSPs), Telcos und anderen Anbietern pflegen.

Das klingt so, als würde HPE hauptsächlich in Integration investieren?

Neri: Das ist nur ein Teil. Für uns geht es auch darum, die passenden Cloud-Ressourcen im Edge-Bereich für die richtigen Anwendungsfälle bereitzustellen. Denken Sie zum Beispiel an eine Fabrikhalle. Dort können wir die OT- und IT-Welt durch eine konvergente Infrastruktur zusammenführen, die den analogen Prozess in einen digitalen Prozess verwandelt. Dafür bringen wir Cloud-Kapazitäten ein, die vollständig virtualisiert und containerisiert sind. Wir integrieren Wi-Fi- oder LAN-Konnektivität und wir eliminieren all diese analogen Prozesse, die potenzielle Fehlerquellen sind, weil viele unterschiedliche Dinge zusammenpassen müssen.

Das ist ein gutes Beispiel für eine Cloud im Edge. Und vielleicht ist diese kleine Cloud mit einer großen Cloud verbunden, die im eigenen Rechenzentrum des Kunden betrieben wird oder bei einem der großen Public-Cloud-Anbieter.

Es ist schwierig, über das Software-defined Data Center und die private Cloud zu sprechen, ohne auch über VMware zu sprechen. Wo enden Ihre softwaredefinierten Lösungen stehen und wo beginnt VMware?

Neri: Wir stoppen beim Hypervisor einschließlich des Software-defined Storage und Dingen wie SimpliVity (HPE hat das auf Hyperconverged Infrastructure spezialisierte Startup Anfang 2017 für 650 Millionen Dollar übernommen, Anm. d. Red.). Das ist der Vorteil, den wir mit HPE OneView bieten. Damit können wir den gesamten Infrastruktur-Lebenszyklus überblicken und alle softwaredefinierten Aspekte auf Infrastrukturebene bereitstellen und verwalten. Und nicht zu vergessen die Sicherheit: Wir haben Sicherheit bis zum Siliziumkern in unsere Systeme integriert - was in geschäftskritischen Umgebungen oder im Behördenumfeld ein Vorteil ist.

Auch auf diesem Layer entwickeln wir uns weiter. Kunden wollen schließlich eine Auswahl. Deshalb ist die Partnerschaft mit Nutanix für uns wichtig. Mit Nutanix Prisma und Akropolis bieten wir Kunden eine Alternative zu vSphere und vCloud Foundation.

VMware hat sich aber doch zum Quasi-Standard für die Private Cloud entwickelt.

Neri: Natürlich, 60 Prozent der On-premise virtualisierten Infrastrukturen laufen unter VMware. Aber Container entwickeln sich mehr und mehr zu einem Wegbereiter für eine Cloud-native Alternative. Wir können den vollen Container-Stack anbieten, weil unsere Lösungen auf Kubernetes basieren. Auch deshalb ist die Partnerschaft mit Nutanix für uns so wichtig. Mit Nutanix offerieren wir KVM und den Prism-Stack. Das alles ist vollständig in HPE OneView für den Rest der Infrastruktur integriert.

Lesen Sie mehr zum Thema Container:

Sie bieten auch die Google Kubernetes Engine für On-premise-Umgebungen an.

Neri: Richtig. Wir arbeiten mit Google zusammen an der nächsten Version.

Wie lange wird es Ihrer Meinung nach dauern, bis Kubernetes und Container direkt auf Bare-Metal-Systemen laufen?

Neri: Das ist eine interessante Frage. Mit Bare Metal und Containern könnte man viel effizienter sein. Es ist ein wenig wie "Zurück in die Zukunft". Aber es ist auch eine andere Zukunft.

Und es macht das Versprechen einer hybriden Cloud etwas realistischer. HPE sieht das Thema Hybrid doch sehr optimistisch?

Neri: Wir waren diejenigen, die gesagt haben, dass die Welt hybrid sein würde.

Aber wie hybrid ist Hybrid heute wirklich? Ich meine, es gibt Workloads in der Public Cloud, Workloads in der Private Cloud. Lässt sich das alles wirklich nahtlos zusammenführen?

Neri: Wir wissen, dass irgendwann alles miteinander verbunden sein wird, aber das ist derzeit tatsächlich noch nicht der Fall. Aber immer mehr dieser Workloads müssen hin und her bewegt werden können.

Machen Sie sich Sorgen darüber, dass die Public Cloud das für HPE so wichtige RZ-Geschäft angreift?

Neri: Das passiert und natürlich bin ich darüber besorgt. Aber was mich zumindest beruhigt, ist folgendes. Die Kunden wollen die Wahl haben, sie wollen keinen Lock-in. Der Service ist ihnen wichtig. Unsere Aufgabe ist es, dieses Public-Cloud-Erlebnis auch in die On-Premise-Welt zu bringen, so dass der Kunde die Wahl hat.

VMs auch wieder abschalten

Wie wichtig sind den Kunden die wirtschaftlichen Aspekte?

Neri: Wenn man sich die Wirtschaftlichkeit der Systeme ansieht, geht es heute längst nicht mehr nur um die Compute-Kosten. Heute spielen die Kosten für die Übertragung von Massendaten eine immer größere Rolle. Deshalb ist die erste Frage, die ein Kunde stellt: Wo soll ich meine Daten ablegen? Das bestimmt dann eine Menge anderer Dinge. Denn heute ist die Rechnung für die Datenübertragung weitaus höher als für die Miete einer VM.

Eine andere Sache ist: In der Public Cloud können Sie ganz einfach eine VM starten. Wenn Sie diese aber nicht auch wieder ausschalten, läuft die Rechnung immer weiter. Wir haben im Rahmen unserer Composable Infrastructure die Möglichkeit geschaffen, VMs automatisch abzuschalten. Es geht darum, Multi-Workloads in derselben Infrastruktur ausführen zu können - sei es Bare Metal, Virtualisierung oder Containerisierung. Es heißt komponierbar, weil die Softwareschichten so intelligent sind, dass sie für jeden Workload die richtigen Lösung aus Compute-Power, Storage, Fabric und Arbeitsspeicher zusammenstellen. Wenn etwas nicht mehr gebraucht wird, wird es einfach wieder zurückgegeben.

Gibt es auf der reinen Hardwareebene überhaupt noch Potenzial für weitere Innovation?

Neri: Wenn man davon ausgeht, dass Daten im Mittelpunkt künftiger Architekturen stehen, dann wird ein CPU-zentrierter Ansatz nicht mehr weiterführen. Deshalb denken wir über Memory-driven Computing nach.

Es gibt jede Menge Ineffizienz, wenn sich Daten über das System hin und her bewegen. Dabei wird übrigens auch viel Energie verschwendet. Was wir nun im Grunde genommen tun, ist das Ganze nach 70 Jahren neu zu strukturieren. Wir nehmen Memory und Storage und kombinieren beides in einem zentralen Pool, der nichtflüchtig ist und zum Kern der Architektur wird. Und dann bringen wir noch die passende Rechenleistung zu den Daten.

In einem KI-Anwendungsfall muss man die Daten nun nicht mehr verschieben. Man bringt Accelerator oder Graphic Processing Units (GPUs) zu den Daten. Für allgemeine Anwendungszwecke lässt sich eine x86-Architektur verwenden, und vielleicht nutzt man für Video-Transcodierung eine ARM-basierte Architektur. Das Charmante dabei ist, man kann dies auf Zettabytes von Daten anwenden, und der Vorteil ist: Man braucht nur sehr wenig Energie, um so ein System am Laufen zu halten, und es ist persistent.

Lesen Sie mehr zum Thema HPE:

Wir nennen dies die "Generation Z Fabric", die auf einer Data-Fabric und Silizium-Photonik basiert. Das klassische Kupfer erzeugt viel Abfall und Wärme und verbraucht viel Energie. Deshalb gehen wir zur Silizium-Photonik über. So können wir nicht nur auf Zettabyte-Ebene skalieren, sondern auch riesige Mengen an Berechnungen durchführen. Wir bringen damit genau das richtige Maß an Compute-Power an den Start, das für die Daten erforderlich ist. Außerdem lösen wir damit noch das Kostenproblem: Kupfer kostet heutzutage viel Geld, und vergoldete Anschlüsse sind auch nicht gerade billig

Wir werden diese Features der Silizium-Photonik in unseren aktuellen Architekturen bis Ende des Jahres implementieren. In den Synergy-Systemen zum Beispiel, einem Composable Bladesystem, können Anwender auf der Rückseite des Racks von Ethernet auf Silizium-Photonik wechseln. Wir haben dies bereits in einem einfachen 2HE-Gehäuse mit 160 TB Speicher und 2000 Kernen als Prototypen ausprobiert. Damit konnten wir eine Milliarden-Datensatz-Datenbank mit 55 Millionen Kombinationen von Algorithmen in weniger als einer Minute verarbeiten.

Sie konzentrieren sich also nicht nur auf den Edge-Bereich, sondern auch auf den Kern?

Neri: Wenn Sie das Ganze von der Cloud bis zum Edge denken, dann skaliert diese Architektur tatsächlich bis ins Kleinste. Man kann sie im großen Stil oder im kleinen Rahmen anwenden. Wir werden diese Technologien jetzt in unseren Systemarchitekturen implementieren. Allerdings muss sich auch noch ein Ökosystem entwickeln. Wir brauchen Softwarehersteller, die Anwendungen für diese neue Welt entwickeln - ansonsten werden die Vorteile nicht ausgeschöpft. Außerdem kann der aktuelle Linux-Kernel nur mit einer begrenzten Menge an Memory umgehen. Deshalb müssen wir den Kernel neu schreiben. Dazu arbeiten wir mit zwei Universitäten zusammen.

Die Hardware wird sich weiterentwickeln, aber es ist noch viel F&E zu leisten Was uns ehrlich gesagt derzeit bremst, ist die Software.

Und da fließt ein Großteil Ihrer Investitionen hin?

Neri: Richtig - in die Systemsoftware, nicht in die Anwendungssoftware. Es ist die Systemsoftware, die diese Infrastruktur lösungsorientiert, Workload-optimiert, autonom und effizient macht. (ba)