Data driven IT

Wie sich aus Daten Gold spinnen lässt

Kommentar  19.12.2017


Gregor Stöckler ist geschäftsführender Gesellschafter von DataVard. Davor war er 15 Jahre lang in Führungs- und Linienfunktionen bei der SAP beschäftigt. Er ist Mitglied der Schmalenbachgesellschaft und Referent auf Fach- und Führungstagungen zu Business Intelligence und Datenmanagement.
Daten sind das Gold des digitalen Zeitalters. Viele technologische Herausforderungen fußen auf dem Rohstoff Daten. Doch wie heben Unternehmen ihren Datenschatz?
Als moderne Alchemisten bemühen sich heute Data Scientists, Daten in Gold zu verwandeln.
Als moderne Alchemisten bemühen sich heute Data Scientists, Daten in Gold zu verwandeln.
Foto: pp1 - shutterstock.com

Big Data erkläre ich gerne mithilfe der 4 Vs: Volume, Velocity, Variety, Viability. Denn das "Big" lenkt von den eigentlichen Herausforderungen ab. Wenn von Big Data die Rede ist, geht es um Daten, die in großer Menge, hoher Geschwindigkeit und in unterschiedlicher Form erzeugt, verarbeitet und ausgewertet werden (Volume, Velocity, Variety):

Volume - Datenvolumen
Obwohl das Marktforschungs- und Beratungsunternehmen IDC schätzt, dass sich das Datenvolumen in einem Unternehmen alle 18 Monate verdoppelt, gilt die damit verbundene Herausforderung durch intelligentes Tiering und Offloading von Daten als lösbar.

Velocity - Geschwindigkeit
Eine größere Herausforderung stellt die Geschwindigkeit dar, mit der große Datenmengen erzeugt werden. Vor allem im Kontext des Internet der Dinge (IoT) erzeugen Sensoren große Mengen Daten in kurzer Zeit. Beispielsweise in einer Boeing 737 rund 20 TB Daten pro Flugstunde. Das fordert die bestehende Infrastruktur, vor allem das Netzwerk, über ihre Kapazität hinaus und verlangt zwingend nach einer intelligenten Aggregation und Klassifizierung der Daten.

Variety und Viability - Vielfalt und Realisierbarkeit

Die aktuell größte Herausforderung ist die Vielfalt der Datentypen und -quellen: 80 bis 90 Prozent aller digitalen Informationen sind unstrukturiert, wie beispielsweise Bilder, Videos und Audiodaten und stammen aus unterschiedlich zuverlässigen Quellen, insbesondere Social Media. Sie sind jedoch der Schlüssel zum Datenschatz.

Ein Beispiel: Für einen mittelständischen Einzelhändler konnten wir durch Kombination bestehender Kunden- und Produktinformationen aus dem ERP- und CRM-System mit aufgezeichneten Anrufen aus dem Callcenter völlig neue Erkenntnisse über Ursachen für Kundenzufriedenheit, Retouren und Abwanderungsquote erzielen. Die Lösung ermöglicht heute im Callcenter Kundenanfragen in Echtzeit ohne zeitraubende Systemwechsel und Medienbrüche zu bearbeiten und dem Kunden proaktiv maßgeschneiderte Angebote zu unterbreiten. Entscheidend ist, dass durch die Anwendung von Big Data wie in diesem Beispiel sinnvoller Nutzen geschaffen wird (Viability). Die Experten von Gartner schätzen, dass 90 Prozent der sogenannten Data Lakes nutzlos sind, weil der Anwendungsfall unklar ist oder der erwartete Nutzen nicht eintrifft.

Alchemie im 21. Jahrhundert: Daten zu Gold

Im Mittelalter und der frühen Neuzeit waren es die Alchemisten, die aus unedlen Metallen das geschätzte Gold herstellten. Heute sind es IT-Verantwortliche, Business Analysten oder Data Scientists, die vor der Herausforderung stehen, ihre Daten zu "vergolden". Die Wahrheit ist jedoch, dass die meisten Unternehmen mit 6 bis 8 Prozent noch immer nur einen Bruchteil der Daten nutzen. Diese Daten sind strukturiert und werden in Enterprise Anwendungen wie SAP oder Salesforce vorgehalten, der Rest sind "Dark Data". Die "Alchemie" besteht also darin, den Abdeckungsgrad von Analytics zu erhöhen, um unstrukturierte Daten wie Emails oder Dokumente und öffentlich zugängliche Daten, wie demographische Informationen, Wetter, Börse oder Verkehr logisch und in Echtzeit miteinander zu verknüpfen. So erhöht sich die digitale Abdeckung der Realität in Richtung einer 360°-Darstellung mit maximaler Aussagekraft und Aktualität.

Ein praktisches Beispiel: Big Data für die IT

Anhand der eigenen IT lässt sich der praktische Nutzen von Big Data sehr gut erklären. Im Zeitalter der Digitalisierung wird auch die IT datengetrieben (Data driven) und nutzt Big Data Analytics als zeitgemäße Entscheidungsgrundlage. So genannte IT Operations Analytics (ITOA) ermöglicht, die gesamte Systemlandschaft ähnlich einer Fabrik intelligent zu analysieren. IT-Verantwortliche gewinnen wichtige Einsichten: Systemnutzung und -auslastung, Performance bzw. Engpässe, Anwenderverhalten, Datenwachstum, aber insbesondere, welche Teile des Systems und welche Daten wirklich genutzt werden.

Durch die hohe Datenmenge und die hohe digitale Abdeckung der Realität im Rechenzentrum eignet sich ITOA hervorragend für den Einsatz von Machine Learning. So können intelligente Vorhersagen und Simulationen genutzt werden, welche die Kapazitätsplanung unterstützen und durch Mustererkennung automatisch Engpässe, Performanceverlust oder Systemausfälle vermeiden. Im digitalen Zeitalter kann so die Benutzer- und Kundenerfahrung auf allen digitalen Kanälen sichergestellt und aktiv gemanaged werden. Das "Datengold" entfaltet seine Wirkung.

Herausforderung für Big Data: Aktives Datenmanagement

Eines von drei Unternehmen identifizierte in der IDG-Studie "Real Analytics 2017" unzureichende Datenqualität und Fehler im Datenmanagement als größte Herausforderungen bei Big-Data- / Analytics-Projekten. Im obigen Beispiel einer Data Driven IT lassen sich diese Hürden überwinden und das volle Potenzial der vorhandenen Daten nutzen. Drei Bausteine sind hierbei entscheidend:

  • Exakte Statusanalyse

"What gets measured gets done" ist eine alte Managementweisheit. Was für den Sport schon lange gilt, lässt sich auch für die IT anwenden: Wer sich verbessern möchte, muss seinen aktuellen Status kennen. Für die IT bedeutet das: Das Messen aller wichtigen Kennzahlen. Verbesserungsmöglichkeiten und Engpässe hinsichtlich Nutzung, Systemgröße und -performance werden so transparent.

  • Automatisiertes Datenmanagement

Die so gewonnene Intelligenz über die Daten- und Systemnutzung nutzen digitale Champions, um viele Prozesse im Datenmanagement zu automatisieren: Klassifizierung der Daten, Housekeeping-Aufgaben oder die Archivierung / Auslagerung. Dadurch läßt sich regelbasiert und automatisiert die operative Datenflut in Einklag mit deren Nutzen bringen und die ohnehin überplanten Mitarbeiter können sich wertvolleren Aufgaben zuwenden.

  • Managen auf Basis von Echtzeitdaten

Um das das volle Potenzial zu nutzen, ist IT Operations Analytics hilfreich, denn jederzeit die Datennutzung und das Benutzerverhalten zu überwachen ermöglicht Echtzeit-Einblicke in alle kritischen operativen IT Aspekte wie Anwender-Verhalten, Datenwachstum, Systemkapazität oder Performance. Ich nenne das gerne "manage your IT like your business". Auf Basis von Echtzeit-Analytics lassen sich schnell Entscheidungen treffen, denn im Gegensatz zu den meisten betriebswirtschaftlichen Anwendungfällen bedeutet das in der IT: innerhalb Minuten oder sogar Sekunden.

Den Datenhorizont erweitern

Noch sind Daten nicht zum 4. Produktionsfaktor avanciert. Dazu braucht es mehr Wissen über Daten und ein aktives Management über die Technologie hinaus. Methoden und Prozesse müssen agiler werden, um mit den raschen Veränderungen Schritt halten zu können. IT-Verantwortliche sollten darüber hinaus ihren Datenhorizont erweitern. Dazu gehört zum einen, spezielles Know-How aufzubauen (Digital Skillset), zum anderen, mehr Daten aus dem Unternehmen auszuwerten. (mb)