Qualität vor Quantität

Der negative Wert von Daten



Marc Wilczek verfügt über Erfahrung darin, als Unternehmer und Manager Pionierarbeit zu leisten und Expansion voranzutreiben. Er ist Autor zahlreicher Beiträge rund um die Themen digitale Transformation, Cloud Computing, Big Data und Security. Aktuell ist er als Geschäftsführer beim IT-Sicherheitsanbieter Link11 tätig. Neben Managementstationen im Deutsche Telekom Konzern und bei CompuGroup Medical, leitete er zuvor unter anderem als Managing Director das Asiengeschäft beim IT-Sicherheitsexperten Sophos.
Trotz steigender Ausgaben für Big-Data-Technologie tun sich viele Unternehmen immer noch schwer, aus den massiv wachsenden Datensilos Kapital zu schlagen. Und nicht alle Daten im digitalen Universum sind gewinnbringend.

Mit der Ausweitung des digitalen Goldrausches rücken Rohdaten in den Fokus. Sie werden regelrecht zum Heilsbringer stilisiert und häufig in einem Atemzug mit Produktionsfaktoren genannt wie Boden, Kapital und Arbeit. Tatsächlich ist es so, dass Daten eine fundamentale Rolle spielen digitale Geschäftsmodelle mit Substanz zu unterfüttern und die Nachahmbarkeit zu verhindern. Ob Alphabet, Amazon oder Facebook - Daten sind das Motorenöl, das digitale Plattformen zum Laufen bringt.

Nicht alle Daten sind gewinnbringend. Wir sagen Ihnen, was Sie wissen müssen.
Nicht alle Daten sind gewinnbringend. Wir sagen Ihnen, was Sie wissen müssen.
Foto: Yulia Grigoryeva - shutterstock.com

Laut einer Untersuchung des Marktforschers IDC, wird sich das digitale Universum mindestens alle zwei Jahre verdoppeln und bis zum Jahr 2025 ein Volumen von 163 Zettabytes erreichen (ein Zettabyte entspricht einer Billionen Terabyte). Im Vergleich zur weltweit vorhandenen Datenmenge im Jahr 2016 käme das einer Verzehnfachung gleich. Die schiere Größe des Daten-Tsunami ist atemberaubend, aber die Gretchenfrage bleibt am Ende: Wie können Unternehmen daraus Kapital schlagen, beziehunsgweise Nutzen stiften?

Die Stückkosten der Datenhaltung sinken rapide weiter

Das als Moore'sche Gesetz bezeichnete Phänomen wird seit Jahrzehnten beobachtet, und mittels neuer Technologien (SSD, SW-definierter Speicher, Objektspeicher usw.) sowie der Konsolidierung innerhalb der Speicherindustrie dreht sich die Preisspiralen weiter konstant in Richtung Süden, mit zweistelligen, relativen Kostenreduktionen gegenüber dem jeweiligen Vorjahr.

Im digitalen Zeitalter liegen die wahren Kosten für die Datenspeicherung längst nicht mehr im Kauf von Hardware, sondern im Aufwand der betrieben werden muss, um die digitalen Assets sorgfältig zu verwalten. In vielen Branchen und Regionen wird dies durch immer restriktivere Anforderungen an das Daten-Lifecycle-Management, länderspezifische Datenschutzgesetze, Anforderungen an zwingend lokale Datenhaltung sowie strengere Compliance-Vorschriften für Datenspeicherungszeiträume und eine stärkere Nutzung von Verschlüsselungstechnologie immer weiter erschwert.

Trotz steigender Ausgaben für Big Data tappen Unternehmen im Dunkeln

Laut Prognosen von IDC wird der Markt für Big Data Analytics von 130 Milliarden US-Dollar im Jahr 2016 auf mehr als 203 Milliarden US-Dollar im Jahr 2020 wachsen, was einer jährlichen durchschnittlichen CAGR von 11,7 Prozent entspricht.

CIO E-Magazin

Obwohl Unternehmen ein Vermögen für das Sammeln, Speichern und Verwalten von Daten ausgeben, ist nur eine Minderheit im Stande, all die Rohdaten in wertvolle Informationen zu konvertieren: Eine Studie von Veritas kommt zu dem Ergebnis, dass 52 Prozent aller Daten, die derzeit von Unternehmen auf der ganzen Welt gespeichert und verarbeitet werden, im Dunkeln schlummern und von unbekanntem Wert sind. Ganze 33 Prozent der Daten gelten als redundant, obsolet oder trivial - sind also nutzlos. Lediglich 15 Prozent aller gespeicherten Daten werden als wirklich geschäftskritisch angesehen. Wenn Daten ohne Differenzierung, sozusagen hamsterartig per Autopilot gehortet und prophylaktisch abgespeichert werden, führt das nach Meinung von Experten bis zum Jahr 2020 zu vermeidbaren Kosten in Höhe von bis zu 3,3 Billionen Dollar. Für die Verwaltung eines digitalen Friedhofs.

Cloudifizierung: Freund oder Feind?

Angesichts der heftigen Preiskämpfe (insbesondere in der Public-Cloud-Domäne) und der Fähigkeit von Unternehmen, ganze Schiffsladungen von Daten zu niedrigen Stückkosten zu speichern, erscheint es verführerisch, Unternehmensdaten im Handumdrehen in die Cloud zu migrieren. Zwar gibt es viele legitime Gründe dafür und Anwendungsbeispiele in Hülle und Fülle, doch die Entscheidung größere Datenmengen zu bewegen sollte gründlich abgewogen werden.

Zuallererst müssen Unternehmen die Komposition ihrer Daten in Bezug auf Inhaltstyp, Alter, Relevanz, etc. richtig verstehen und diese entsprechend klassifizieren. Die Auslagerung "dunkler" Daten in die Cloud ist beispielsweise reine Verschwendung von Zeit und Geld. Hinzu kommt, dass durch die Migration entsprechende Aufwände entstehen und Daten regelrechte Gravitationskraft entwickeln: Sie wachsen exponentiell und den Bestand später gegebenenfalls zurückfahren zu wollen, ist alles andere als ein Kinderspiel. Daher ist es unabdingbar, die Daten vor Antritt einer Cloud-Reise sorgfältig zu prüfen, zu visualisieren und zu klassifizieren.

Data Governance: Alles andere als ein notwendiges Übel

Während der Umgang mit strukturierten Daten auf den ersten Blick leicht erscheinen mag, ist die Verwaltung unstrukturierter Daten ein wahrer Kraftakt. Diese stehen Schätzungen zu Folge für rund 80 bis 90 Prozent aller Unternehmensdaten. Die Bewertung der Inhalte hinsichtlich Relevanz und Nutzen, sowie die Identifizierung duplikativer, vertraulicher und sensibler Informationen sind jedoch Schlüsselkomponenten bei der Implementierung datenzentrierter Geschäftsmodelle. Unabhängig davon, ob die Verantwortung dem Chief Information Officer (CIO) oder einem eigens implementierten Chief Data Officer (CDO) obliegt, ist die Schaffung und Anwendung eines Data-Governance-Frameworks unerlässlich.

Dieses bildet die Grundlage für alle Anwendungsszenarien und erfasst typischerweise wie Daten klassifiziert, aggregiert, verfeinert, analysiert, verwaltet, monetisiert, aufbewahrt und gelöscht werden. Dabei finden Compliance-Regularien und sonstige Anforderungen entsprechende Berücksichtigung. Zudem sind Unternehmen, die eigene proprietäre Algorithmen entwickelt haben um die Werthaltigkeit von Daten abzuleiten, gut beraten, Patente in Erwägung zu ziehen, um die Rechte an ihrem geistigen Eigentum zu schützen.

Fazit: Klasse statt Masse

Trotz steigender Ausgaben muss noch viel Vorarbeit geleistet werden. Unternehmen sollten vermeiden, in eine opportunistische Datenhortungs-Falle zu tappen. Zudem gilt es, sich die Existenz eines "Wendepunkts" bewusst zu machen, ab dem die Schaffung noch größerer Datensilos nicht unbedingt zu einem größeren wirtschaftlichen Erfolg führt - insbesondere wenn man berücksichtigt, wie viele der Daten am Ende im Dunkeln schlummern oder veraltet und wertlos sind. Tatsächlich können Daten einen negativen Wert aufweisen und am Ende vor allem eines ganz gewiss mit sich bringen: Kosten.

Mehr als die Quantität zählt die Datenqualität: Der Erfolg eines Big-Data-Analytics-Projekts steht und fällt mit der Qualität der verwendeten Daten. Dies hat in hohem Maße mit einem gut implementierten Governance-Modell zu tun, das "gute Daten" von "großen Daten" unterscheidet. Die Nutzung der Cloud kann wirtschaftlich sinnvoll sein und umfangreiche Anwendungsszenarien ermöglichen, erfordert aber eine solide Planung, um nicht auf dem Holzweg zu landen.

Während es mitunter fälschlicherweise als Akt der Bürokratie abgetan wird, ist die Einführung eines soliden Data-Governance-Modells weit mehr als nur ein lästiges Übel. Denn dieses ist engmaschig mit dem Erfolg der datenzentrischen Unternehmung korreliert und folgt zwei Grundprinzipien, die im Finanzergebnis ihre Wirkung zeigen. Nämlich strategische Einblicke gewinnen, um neues Umsatzwachstum zu generieren und unnötige Kosten für die Verwaltung nutzloser Datensilos eliminieren. (fm)