6 Gründe

Warum Sie an Data-driven scheitern

13.10.2023
Von 


Maria Korolov berichtet seit über zwanzig Jahren über aufstrebende Märkte und Technologien. Sie schreibt für die US-amerikanische IDG-Publikation CSO.
Ein Data-driven Enterprise erzielt bessere Ergebnisse als ein Unternehmen, das nicht datengetrieben arbeitet. Und dennoch…
Die Journey zum Data-driven Enterprise ist problembehaftet.
Die Journey zum Data-driven Enterprise ist problembehaftet.
Foto: momoforsale - shutterstock.com

Ein Whitepaper von IDC bringt die Benefits eines datengetriebenen Unternehmensbetriebs auf den Punkt. Demnach berichten Data-driven Enterprises verglichen mit traditionellen Unternehmen von:

  • einer dreifachen Umsatzsteigerung,

  • einer nahezu dreifach beschleunigten Time-to-Market für neue Produkte und Services,

  • einer doppelt so hohen Kundenzufriedenheit und

  • einer höheren betrieblichen Effizienz.

Allerdings bezeichnet sich in einer Umfrage von New Vantage Partners nur jedes vierte befragte Unternehmen als Data-driven. Darüber hinaus können lediglich 21 Prozent der Befragten in ihrem Unternehmen eine Datenkultur erkennen.

Im Gespräch mit diversen Experten werfen wir einen Blick auf sechs Problemfelder, die regelmäßig verhindern, dass Unternehmen datengetrieben arbeiten.

1. Schlechte Daten nicht erkennen

Wenn die zugrundeliegenden Daten qualitativ minderwertig sind, nutzt Ihnen auch die beste Analytics-Strategie nichts. Datenqualitätsprobleme zu lösen, erfordert allerdings ein tiefgreifendes Verständnis darüber, was die Informationen bedeuten und wie diese erhoben werden. "Datenduplikate sind ein Problem, aber wenn die Daten schlicht nicht korrekt sind, ist das wesentlich schwieriger zu beheben und dauert signifikant länger", erklärt Uvi Stewart, Chief Data and Technology Officer bei der Non-Profit-Organisation Data.org. Er fügt hinzu: "Um Fakt und Fiktion an dieser Stelle voneinander unterscheiden zu können, ist Fachwissen notwendig."

Rein technische Skills sind allerdings nicht genug, wie Lenno Maris, Senior Global Director for Enterprise Data bei der multinationalen Molkerei-Genossenschaft FrieslandCampina, aus eigener Erfahrung weiß: Als er im Jahr 2017 seine Stelle antrat, hatte das Unternehmen gerade eine Strategie aufgesetzt, um zu einem Data-driven Enterprise zu werden. Dabei wurde schnell klar, dass die Datenqualität eine wesentliche Hürde darstellt, erinnert sich Maris: "Unsere Bestände wurden beispielsweise auf Grundlage der Palettenanzahl erfasst, die Bestellungen jedoch auf Grundlage der Stückzahlen. Um sicherzustellen, dass die richtigen Mengen zum richtigen Preis geliefert werden, mussten manuelle Umrechnungen vorgenommen werden."

Um diese und weitere Datenqualitätsprobleme zu lösen, musste FrieslandCampina seine Datenorganisation weiterentwickeln. Zu Beginn des Projekts konzentrierte sich das Team dabei hauptsächlich auf die technischen Details der Dateneingabe. Das änderte sich jedoch schnell, wie Datenentscheider Maris berichtet: "Wir konnten unsere Teammitglieder zu Prozess-, Datenqualitäts- und Fachexperten umschulen. Das hat uns ermöglicht, zu einem proaktiven Daten-Support überzugehen und unseren Business-Kollegen beratend zur Seite zu stehen."

Nachdem das Unternehmen auch seine Technologieplattform (Syniti) angepasst hatte, konnte es Ende 2022 die Orchestrierung der Geschäftsprozesse abschließen und das Projekt somit vollständig implementieren. Die Ergebnisse können sich sehen lassen:

  • Eine 95-prozentige Verbesserung der Datenqualität und

  • eine 108-prozentige Steigerung der Produktivität.

"Vor der Implementierung unserer Datenplattform mussten wir jährlich über 10.000 Stunden an Nacharbeit in unsere Stammdaten investieren. Dieser Aufwand ist heute auf nahezu Null gesunken", resümiert Maris.

2. Konsolidierung nur technisch betrachten

Randy Sikes, IT Director of Data Services beim US-Versicherer Hastings Mutual, erinnert sich an einen seiner früheren Arbeitgeber - und dessen achtjährigen, erfolglosen Kampf damit, ein Data Warehouse aufzubauen: "Das konnte nichts werden, weil wir versucht haben, standardmäßige Systementwicklungstechniken anzuwenden, ohne dabei auf das Business-Alignment zu achten."

Auch deshalb verfolgt er als IT-Entscheider bei Hastings einen anderen Ansatz, wenn es darum geht, die Daten des Unternehmens in einem Data Warehouse zu konsolidieren: Zunächst wurden die Daten aus Legacy-Systemen in einer Landing Area gesammelt. Anschließend wanderten sie in einen Staging-Bereich, wo Geschäftsregeln angewendet wurden, um Daten aus den unterschiedlichen Systemen miteinander abzugleichen und zu konsolidieren. Bei Hastings hatte das Projekt Erfolg - ein Umstand, der laut Sikes vor allem einer Maßnahme zu verdanken ist: "Wir hatten erfahrene Kollegen aus dem Business im Team, die die Organisation sehr gut kennen. Erfolg erfordert ein funktionsübergreifendes Team."

Die verschiedenen Versicherungssysteme könnten beispielsweise unterschiedliche Begriffe, Deckungsbereiche und Risiken enthalten. Um all diese Informationen zu konsolidieren, müsse das Datenteam nach Meinung von Sikes die Geschäftssprache und die Regeln, die für die Umwandlung der Rohdaten in ein universelles Format erforderlich sind, verstehen. "Das ist die größte Herausforderung für die Unternehmen. Sie versuchen, die Daten zu beschaffen und sie technisch zusammenzusetzen und vergessen die Business Story hinter den Daten. Deshalb scheitern solche Projekte oft", resümiert der IT-Manager.

Welche Benefits Unternehmen im Erfolgsfall erwarten, verdeutlicht das Beispiel von Hastings: Der US-Versicherer ist nach eigener Aussage heute in der Lage, Reportings, die früher 45 Tage in Anspruch genommen haben, innerhalb von 24 Stunden bereitzustellen. Für die Zukunft verspreche die fortschreitende Modernisierung im Bereich der Datenbanken zudem Informationen in Echtzeit, freut sich Sykes.

3. Kein kurzfristiger Benefit

Obwohl das Data-Warehouse-Projekt bei Hastings im Jahr 2014 begann und erst 2017 abgeschlossen wurde, konnte der Versicherer bereits in den ersten zwölf Monaten einen Mehrwert verzeichnen. IT-Direktor Sykes schreibt das in erster Linie den Landing- und Staging-Bereichen zu. Diese lieferten bereits einen Mehrwert, wenn es darum geht, die Daten zu erfassen und zu verarbeiten. "Datenprojekte müssen während des gesamten Prozesses einen geschäftlichen Nutzen liefern", resümiert Sykes.

Ein ähnlicher "Quick Win" hat auch Denise Allec, Principal Consultant bei NTT, zum Datenprojekterfolg verholfen - damals noch in der Rolle einer IT-Direktorin bei einem Großunternehmen. Ein sechswöchiges PoC-Projekt habe den Mehrwert belegt und dabei geholfen, Herausforderungen wie Change-Widerstände zu überwinden: "Die Daten-Ownership aufzugeben, bedeutet für viele einen Kontrollverlust. Daten zu horten ist jedoch nicht auf Führungskräfte beschränkt - auch Mitarbeiter neigen dazu, den Daten anderer nicht zu vertrauen. Sie wollen ihre eigenen Quellen validieren und prüfen und ihre eigenen Reporting-Tools nutzen, die auf ihre individuellen Bedürfnisse zugeschnitten sind", berichtet die Chefberaterin und ergänzt: "Wir alle sind vertraut mit diversen, sich überschneidenden Unternehmensdatenbanken und den Herausforderungen, die sich aus einer solchen Situation ergeben."

Dass Datenprojekte ohne unmittelbaren Mehrwert ein wesentliches Hindernis auf dem Weg zum Data-driven Enterprise darstellt, kann auch Sanjay Srivastava, Chief Digital Strategist beim IT-Dienstleister Genpact, nur bestätigen: "Solange das nicht der Fall ist, bleibt alles bei einer theoretischen Diskussion".

Als Kehrseite der Medaille identifiziert der Manager nicht skalierbare Projekte: "Ohne die Möglichkeit, zu skalieren, wird ein Datenprojekt keinen signifikanten, langfristigen Impact haben und Ressourcen für einen nicht relevanten oder idiosynkratischen Use Case verbrauchen. Der Schlüssel zum Erfolg liegt darin, sukzessive geschäftlichen Mehrwert in einem Zeitrahmen zu liefern, der skalierbar ist und dazu geeignet, die Aufmerksamkeit der Beteiligten aufrechtzuerhalten."

4. Kein Self-Service

Die Business-Anwender an erste Stelle zu setzen, bedeutet, ihnen die Daten zur Verfügung zu stellen, die sie brauchen - und zwar in der richtigen Form. Beim Versicherer Hastings zum Beispiel mussten die Mitarbeiter in der Vergangenheit Daten per Copy-and-Paste in Excel einfügen, um sie zu bearbeiten. Das hat sich grundlegend geändert - obwohl immer noch mit Excel gearbeitet wird: "Wir haben uns die Frage gestellt, warum wir den Usern nicht einfach die Daten geben. So fällt der Copy-Paste-Prozess komplett weg", illustriert Sykes.

Darüber hinaus setzt das Versicherungsunternehmen aber auch im großen Stil auf Dashboards, die sowohl intern als auch von externen Dienstleistern genutzt werden. "Das hilft unseren Mitarbeitern beim Cross-Selling unserer Produkte - etwas, das es in dieser Form vorher bei uns nicht gab", offenbart der IT-Manager. Er fügt allerdings hinzu, dass es eine Herausforderung darstelle, alle Mitarbeiter mit den nötigen Self-Service-Tools auszustatten.

Das Ziel, den Datenzugang zu demokratisieren, hatte sich vor fünf Jahren auch das Kinderkrankenhaus von Dayton (US-Bundesstaat Ohio) gesetzt. Seitdem hat sich einiges getan, wie CIO J.D.Whitlock erzählt: "Inzwischen setzen wir wie viele andere auch auf Microsoft Data Stack. Solange jemand ein bisschen mit Power BI umgehen kann, kann er die entsprechenden Daten im richtigen Format und mit der erforderlichen Sicherheit bereitstellen."

Darüber hinaus sorgte die Kinderklinik dafür, dass das Datenanalyse-Team dezentral aufgestellt ist. Whitlock erklärt den Gedanken dahinter: "Angenommen, Sie wollen wissen, wie viele Eingriffe Arzt X im letzten Jahr durchgeführt hat. Das ist eine relativ einfache Abfrage. Gibt man aber den Benutzern nicht die richtigen Werkzeuge an die Hand, führt das zu einer Anfragenflut. Self-Service-Tools haben wesentlich dazu beigetragen, dass wir uns zu einem datengetriebenen Unternehmen entwickeln konnten."