Data Governance ist ein Muss

09.05.2012
Noch nie gab es so viele geschäftsrelevante Daten wie heute. Sie kommen aus unterschiedlichen Quellen und sind häufig unstrukturiert. Wer sie nutzen will, muss vor allem auf Korrektheit und Konsistenz achten.

Der Begriff Big Data beschreibt eine Erweiterung vorhandener Methoden und Prozesse des Informations-Managements. Es geht darum, große Mengen an mehr oder weniger strukturierten Daten ihrer Relevanz entsprechend zu erfassen, zu verarbeiten, auszuwerten und für Business-Entscheidungen bereitzustellen.

Die Bedeutung des Informations-Managements für Unternehmen verdeutlicht das Marktforschungs- und Beratungsunternehmen Gartner mit einem anschaulichen Bild: Informationen sind das Öl des 21. Jahrhunderts; die Geschäftsanalysen sind der Verbrennungsmotor, der damit betrieben wird.

Wichtige Daten liefert der Kunde

Unternehmen benötigen heute immer schneller immer größere und möglichst detailliert aufbereitete Datenmengen. Eine wichtige Rolle spielen dabei Informationen, die an den Kundenkontaktpunkten entstehen und auch dort erfasst werden. Dazu gehören etwa die Aufnahme von Werbebotschaften aus Print- und Online-Medien, die Klicks auf den Web-Seiten des Unternehmens, Reaktionen auf Berichte in der Wirtschafts-, Fach- und Tagespresse sowie auf den verschiedenen Social-Media-Plattformen, Reklamationen von Angeboten und Rechnungen, Erfahrungen mit der Dokumentation und die Supportqualität.

Diese riesige Menge von Kundenkontaktdaten zu verarbeiten ist eine Herausforderung. Kein Wunder, dass seit einiger Zeit der Begriff Big Data als Beschreibung der anstehenden Aufgaben in aller Munde ist. Die Metapher von Gartner bringt es auf den Punkt: Aus gewaltigen Datenmengen und heterogenen Datenquellen - wobei die Kundenkontaktdaten beispielhaft für viele andere Daten stehen - müssen die Unternehmen den Rohstoff Information herausfiltern und für Business-Entscheidungen nutzbar machen. Die Anwender stehen dabei vor vier Herausforderungen:

Die schiere Menge: Das für Unternehmen relevante Datenvolumen steigt dramatisch an. Heute schon werden Datenmengen im Terabyte-Bereich analysiert, in Kürze dürften Mengenangaben in Petabyte und Exabyte erfolgen.

Der Zeitdruck: Analysen der gewaltigen Datenberge sollten idealerweise in Echtzeit zur Verfügung stehen. Denn die Unternehmen stehen vor der Aufgabe, schnell auf Marktänderungen zu reagieren.

Die mangelnde Struktur: Die Analysen müssen immer häufiger Datenquellen mit kaum strukturierten Beständen berücksichtigen. Die Komplexität der Datenanalysen steigt. Neben den bekannten Datenquellen, etwa den vorhandenen ERP-Systemen, kommen neue hinzu. Dazu zählen Daten aus M2M-Applikationen, also beispielsweise Sensordaten, Daten aus On-Board-Systemen, RFID-Daten aus der Logistikkette, aber auch Daten aus Weblogs und Social-Media-Plattformen etc.

Die wachsende Anwenderzahl: Die Zahl der potenziellen internen und externen User wird zulegen. Sie kommen beispielsweise über Self-Service-Portale, die im Web zugänglich sind.

Neue Datenquellen erschließen

Big-Data-Anwendungen zielen darauf ab, bislang nicht zugängliche Mengen von unstrukturierten oder wenig strukturierten Geschäftsdaten auf ihre Relevanz für konkrete Einsatzgebiete hin zu prüfen, sie zu verarbeiten und bereitzustellen - etwa für das Kundenbeziehungs-Management. Wie sieht das auf der technischen Seite aus? Die Fundamente dafür können BI-Plattformen und Business-Analytics-Applikationen liefern. Big-Data-Anwendungen sind keine Insellösungen. Letztlich müssen sie in die unternehmensweite Informationsstrategie eingebettet sein, die wiederum eng mit der Unternehmensstrategie und der Unternehmenssteuerung abgestimmt sein sollte.

Die übergeordneten Anforderungen ergeben sich aus der Data Governance. Dort wird festgelegt, wie ein Unternehmen mit Informationen und Daten umgeht, wie Sicherheitskriterien sowie Compliance-Auflagen zu behandeln sind und wie Daten durch die IT für das Unternehmen und die Mitarbeiter nutzbar gemacht werden.

Datenqualität ist essenziell

Wie alle anderen unternehmenskritischen Applikatio-nen sind auch Big-Data-Anwendungen darauf angewiesen, dass sie mit korrekten Daten arbeiten. In den internen Datenbeständen kommt es allerdings immer wieder zu Inkonsistenzen. Aufgrund unterschiedlicher Kontaktkanäle und wegen der bisweilen wild wuchernden Applikationsarchitekturen liegen vor allem die Kundendaten oft in den unterschiedlichsten Anwendungen.

Hier wird ein Qualitäts-Check notwendig. Er beginnt mit einer Bestandsaufnahme. Es muss festgestellt werden, welche Daten in welcher Güte im Unternehmen vorhanden sind. Dies ist eigentlich die Aufgabe der Fachabteilungen, denn sie haben durch die tägliche Arbeit einen guten Einblick in die Auftrags-, Finanz-, Kunden-, Material-, Produktions- sowie Rechnungsdaten sowie die hier immer wieder auftretenden Probleme. Aber letztlich sollte sich die gesamte Organisation des Themas Data Governance annehmen.

Für die technische Grundlage der Datenqualität ist die IT-Abteilung verantwortlich. Sie kann dazu auf die Unterstützung von Software-Tools zurückgreifen. Wichtig sind beispielsweise ein leistungsstarker Datenbank-Layer und eine optimierte Matching-Engine.

Funktionen für das Validieren, Standardisieren und Vereinheitlichen ermöglichen eine Datenbereinigung in Echtzeit. Damit lässt sich ein leistungsstarkes Fundament für ein nachhaltiges Datenqualitäts-Management aufbauen.

Operative Systeme integrieren

Um auf die unterschiedlichen internen und externen, strukturiert und unstrukturiert vorliegenden Daten zugreifen zu können, ist zudem eine flexible Integrationstechnik notwendig. Native Adapter für die einzelnen Datenquellen gewähren einen einfachen Zugang zu jedem Informationssystem, einschließlich des Data Warehouse. So ist es möglich, für die unternehmenskritischen Geschäftsprozesse tatsächlich aktuelle und konsistente Daten zu verwenden. Bislang werden die operativen Systeme noch zu häufig vernachlässigt oder gar vergessen.

Daten-Management im Kreislauf

Eine hohe Datenqualität lässt sich selbstverständlich nicht durch ein einmaliges Projekt erreichen - und schon gar nicht langfristig absichern. Vielmehr sollten, wo immer möglich, die Daten schon bei der Eingabe automatisch überprüft werden, und zwar sowohl hinsichtlich der Syntax als auch der Semantik. Ist ein solcher permanenter und automatischer Check nicht möglich, sollte zumindest alle zwei bis drei Monate manuell kontrolliert werden.

Im Idealfall folgen das Datenqualitäts-Management und die Data Governance einem Kreislaufmodell. Notwendige Schritte sind eine systematische Datenanalyse inklusive der -bereinigung, die Datenkonsolidierung und das Überwachen der Datenintegration. Last, but not least sollte die Datenqualität permanent daraufhin überprüft werden, ob die internen und externen Regeln eingehalten wurden. (qua)

Klaus Hofmann zur Linden ist Technical Manager Deutschland bei Information Builders.