HPE Discover Frankfurt

Mangelnde Datenreife bremst Organisationen aus

09.12.2022
Von 


Manfred Bremmer beschäftigt sich mit (fast) allem, was in die Bereiche Mobile Computing und Communications hineinfällt. Bevorzugt nimmt er dabei mobile Lösungen, Betriebssysteme, Apps und Endgeräte unter die Lupe und überprüft sie auf ihre Business-Tauglichkeit. Bremmer interessiert sich für Gadgets aller Art und testet diese auch.
Einer aktuellen Studie zufolge werden Wachstum und Innovation ausgebremst, weil Firmen und Behörden zu wenig aus ihren Daten machen. HPE will mit seiner Greenlake-Plattform zumindest die Verfügbarkeit der verteilten Daten verbessern.
Nach wie vor liegen viele Daten in Silos und werden nicht genutzt, geschweige denn geteilt.
Nach wie vor liegen viele Daten in Silos und werden nicht genutzt, geschweige denn geteilt.
Foto: Hans Verburg - shutterstock.com

"Die Daten liegen herum und wir fassen sie nicht an", resümierte DACH-Chef Johannes Koch die Ergebnisse einer neuen YouGov-Studie am Rande der HPE Discover in Frankfurt. YouGov hatte im Auftrag von HPE mehr als 8.600 Führungskräfte in 19 Ländern zu ihrer Datenstrategie befragt. Die Auswertung des Global Data Survey ergab, dass der durchschnittliche globale Datenreifegrad - oder die Fähigkeit, aus Daten Mehrwert zu schaffen - bei 2,6 auf einer 5-Punkte-Skala liegt - in Deutschland sogar nur bei 2,4. Nur drei Prozent der befragten Unternehmen und öffentlichen Einrichtungen erreichen den höchsten Reifegrad.

Zwischen Datenanarchie und Datenökonomie

Die Umfrage basiert auf einem von HPE entwickelten Reifegradmodell, das die Fähigkeit eines Unternehmens zur Wertschöpfung aus Daten anhand von strategischen, organisatorischen und technologischen Kriterien bewertet. Die niedrigste Reifegradstufe (1) wird dabei als "Datenanarchie" bezeichnet; auf dieser Stufe sind die Datenpools voneinander isoliert und werden nicht systematisch analysiert, um Erkenntnisse oder Ergebnisse zu gewinnen.

Wenngleich große Unternehmen etwas besser abschnitten als kleine, bescheinigt die Studie den Firmen insgesamt nur eine mittelmäßige Datenreife.
Wenngleich große Unternehmen etwas besser abschnitten als kleine, bescheinigt die Studie den Firmen insgesamt nur eine mittelmäßige Datenreife.
Foto: HPE

Die höchste Stufe (5) wird als "Datenökonomie" bezeichnet; auf dieser Stufe nutzt ein Unternehmen Daten strategisch, um Ergebnisse zu erzielen, und zwar auf der Grundlage eines einheitlichen Zugriffs auf interne und externe Datenquellen, die mit fortschrittlicher Analytik und Künstlicher Intelligenz analysiert werden.

Die Umfrageergebnisse ergeben dabei die folgende Verteilung auf die Reifegradstufen:

  • 14 Prozent (Deutschland: 18 Prozent) der befragten Firmen und Behörden sind auf Stufe 1 ("Daten-Anarchie")

  • 29 Prozent (D: 36 Prozent) auf Stufe 2 ("Daten-Reporting")

  • 37 Prozent (D: 35 Prozent) auf Stufe 3 ("Daten-Erkenntnisse")

  • 17 Prozent (D: 10 Prozent) auf Stufe 4 ("Daten-zentrisch")

  • und nur 3 Prozent (D: 1 Prozent) auf Stufe 5 ("Daten-Ökonomie").

Die Umfrage zeigte auch diverse Lücken auf, die Unternehmen und Behörden schließen müssen, um Daten entlang ihrer gesamten Wertschöpfungskette zu nutzen. So ist bei 87 Prozent der Befragten die Datenstrategie nicht Teil der Corporate-Strategie - in Deutschland sogar bei 91 Prozent. Und fast die Hälfte der Befragten gibt an, dass ihre Organisationen keine KI-Methoden wie maschinelles Lernen oder Deep Learning einsetzen - obwohl das Thema mindestens seit fünf Jahren stark im Trend sei, so die HPE-Manager. Stattdessen kämen bei der Datenanalyse nur Tabellenkalkulation (29 Prozent, D: 30 Prozent) oder Business Intelligence und standardisierte Berichte (18 Prozent, D: 16 Prozent) zum Einsatz.

Die fehlende Fähigkeit, auf Daten zuzugreifen und anschließend auf Basis von Insights entsprechende Maßnahmen vorzunehmen, erschwert es den Organisationen, wichtige Ziele zu erreichen. Zu diesen Versäumnissen zählen laut Auskunft der Befragten:

  • Umsatzsteigerung (30 Prozent, Deutschland: 21 Prozent),

  • Innovation (28 Prozent, D: 19 Prozent),

  • Erhöhung der Kundenzufriedenheit (24 Prozent, D: 20 Prozent),

  • Verbesserung der ökologischen Nachhaltigkeit (21 Prozent, D: 21 Prozent) und

  • Steigerung der internen Effizienz (21 Prozent, D: 20 Prozent).

Fehlende Voraussetzungen für Datenwertschöpfung

Eine Voraussetzung für die Datenwertschöpfung ist es, Daten oder Datenerkenntnisse aus verschiedenen Anwendungen, Standorten oder externen Datenräumen zusammenzuführen. So kann beispielsweise die Sensortelemetrie von verkauften Produkten dem Hersteller helfen, die nächste Produktgeneration besser auf die Kundenbedürfnisse abzustimmen, erklären die Verfasser der Studie. Ebenso kann der Austausch von Erkenntnissen aus Patientendaten zwischen Krankenhäusern die medizinische Diagnose verbessern.

Organisationen mit einem niedrigen Datenreifegrad tun sich hier schwer, weil es keine übergreifende Daten- und Analysearchitektur gibt, sondern die Daten in einzelnen Anwendungen oder Standorten isoliert sind. Dies ist bei 34 Prozent der Befragten der Fall, bei den deutschen Teilnehmern betrug der Anteil laut HPE sogar 40 Prozent. Im Gegensatz dazu haben nur 19 Prozent, in Deutschland elf Prozent, eine zentrale Datendrehscheibe oder -struktur implementiert, die einen einheitlichen Zugriff auf Echtzeitdaten im gesamten Unternehmen ermöglicht. Weitere acht Prozent (Deutschland: sieben Prozent) geben an, dass diese Datendrehscheibe auch externe Datenquellen umfasst.

Gleichzeitig ist sich die Mehrheit der Befragten darin einig, dass es strategisch wichtig ist, ein hohes Maß an Kontrolle über ihre Daten und die Mittel zur Wertschöpfung aus Daten zu haben. Mehr als die Hälfte der Befragten ist besorgt, dass Datenmonopole zu viel Kontrolle über ihre Möglichkeiten zur Wertschöpfung aus Daten haben, und 39 Prozent überdenken ihre Cloud-Strategie aufgrund steigender Cloud-Kosten, Bedenken hinsichtlich der Datensicherheit, der Notwendigkeit einer flexibleren Datenarchitektur, und der mangelnden Kontrolle über ihre Daten.

Von Cloud First zu Data First

"Die Unternehmen müssen Daten in den Mittelpunkt ihrer Digitalisierungsstrategie stellen", kommentierte HPE-Chef Antonio Neri in seiner Keynote auf der HPE Discover die Ergebnisse. Dafür brauche es hybride Edge-to-Cloud-Architekturen, bei denen die Cloud zu den Daten kommt - und nicht umgekehrt.

HPE-CEO Antonio Neri: Die Cloud muss zu den Daten kommen, nicht umgekehrt"
HPE-CEO Antonio Neri: Die Cloud muss zu den Daten kommen, nicht umgekehrt"
Foto: HPE

Wie es der Zufall will, hat HPE mit Greenlake genau eine solche Management-Plattform entwickelt. Greenlake war 2017 gestartet, um ein Cloud-ähnliches Nutzungsmodell ins Rechenzentrum zu bringen. Im Laufe der Zeit wurden weitere Funktionen hinzugefügt, um die IT-Verwaltung zu vereinfachen und den Unternehmen ein softwaregesteuertes, Cloud-ähnliches Erlebnis auf Knopfdruck zu bieten.

Im Juni 2022 kündigte HPE dann auf seiner Hauptmesse in Las Vegas mit Greenlake for Private Cloud Enterprise die Möglichkeit für Unternehmen an, ihre gesamte IT-Infrastruktur über ein Cloud-ähnliches Verbrauchsmodell zu betreiben. Die Lösung umfasst eine modulare Infrastruktur und Software und unterstützt die Einrichtung von Bare Metal, virtuellen Maschinen und Container-Workloads. HPE GreenLake gibt Unternehmen die Möglichkeit, überall auf Daten zuzugreifen, sie zu kontrollieren, zu schützen, zu verwalten und ihren Wert freizusetzen, und zwar in einer einzigen, konsistenten Erfahrung", erklärte Firmenchef Neri.

Erweiterungen für HPE GreenLake for Private Cloud Enterprise

Auf der Messe in Frankfurt kündigte das Unternehmen nun die allgemeine Verfügbarkeit von HPE GreenLake for Private Cloud Enterprise in 52 Ländern an und stellte weitere Anwendungs-, Analyse- und Entwicklerservices für die Lösung vor.

HPE ist eifrig bemüht, den Cloud-Servicekatalog von Greenlake zu komplettieren.
HPE ist eifrig bemüht, den Cloud-Servicekatalog von Greenlake zu komplettieren.
Foto: HPE

Diese sollen es Unternehmen ermöglichen, eine datenorientierte Modernisierungsstrategie für Produktions- Workloads in Hybrid-Cloud-Umgebungen voranzutreiben. Die wichtigsten Neuerungen:

  • Mit der Integration von Amazon Elastic Kubernetes Service (Amazon EKS) Anywhere bietet HPE GreenLake for Private Cloud Enterprise nun neben HPE Ezmeral eine weitere Option, um Container bereitzustellen. Kunden können damit in ihrem eigenen Rechenzentrum dieselben Container-Laufzeiten wie in der Public Cloud ausführen. Außerdem können sie Anwendungen zwischen der privaten und öffentlichen Cloud portieren.

  • Für die Verwaltung von virtuelle Maschinen, Containern und physischen Server können HPE-Greenlake-Kunden nun zwischen über eine Konsole, Programmierschnittstellen (API), einer Befehlszeilenschnittstelle oder Infrastructure as Code wählen. Entwicklern bekommen auf diese Weise sofort Zugriff auf ihren Arbeitsbereich und können dabei aus einer Vielzahl von Betriebssystemen, containerisierten Anwendungen und Toolchain-Integrationsdiensten wählen.

  • Um die Leistung geschäftskritischer Anwendungen zu verbessern, bietet HPE GreenLake für Private Cloud Enterprise jetzt sechs optimierte Instanzen für General Purpose, Compute, Memory und Storage. Wie alle Komponenten werden auch diese verbrauchsabhängig abgerechnet.

  • Eine erweiterte Verbrauchsanalyse verbessert die Nutzungs- und Kostenanalyse von Anwendungen der drei Hyperscaler im Public-Cloud-Umfeld. Dazu gehören ein Showback-Reporting und ein Dashboard, das Kunden hilft, die Kapazitätsplanung und Budgetierung in ihrer hybriden Umgebung zu verbessern.

Neuzugänge im HPE-Greenlake-Ökosystem

HPE kündigte außerdem der Red Hat OpenShift Container Platform und einer Integration mit der VMware Cloud Neuzugänge für seinen HPE GreenLake Marketplace an. Außerdem stellte HPE ein Early-Access-Programm für HPE GreenLake for Data Fabric und HPE Ezmeral Unified Analytics vor. HPE GreenLake for Data Fabric ermöglicht einen einheitlichen Zugriff auf verteilte Datenbestände, etwa im eigenen Rechenzentrum, in der Cloud und an der Peripherie. HPE Ezmeral Unified Analytics ist eine Cloud-Lösung mit Open-Source-Werkzeugen für den gesamten Daten-Lebenszyklus.

Wie Vishal Lall, General Manager GreenLake Cloud Solutions and Software bei HPE, erklärte, will HPE mit diesen und weiteren Erweiterungen Greenlake Schritt für Schritt als Bindeglied zwischen allen Komponenten in einer hybriden (Multi-)Cloud ausbauen. "Die Kunden beginnen, den Mehrwert einer hybriden Cloud-Struktur für ihre digitale Transformation zu erkennen."

So geht HPE davon aus, dass innerhalb von drei Jahren 70 Prozent der Unternehmen auf einen hybriden Multi-Cloud-Ansatz umsteigen werden.