Datability

Datenqualität neu denken

03.06.2014
Von 


Holger Stelz ist Director Marketing & Business Development bei Uniserv. Seit 2010 leitet der Experte für Datenmanagement die Weiterentwicklung des Geschäftsfeldes Kundendatenmanagement und verantwortet zudem seit 2011 das weltweite Marketing. Holger Stelz hat über 20 Jahre Erfahrung in der IT-Branche. Unter anderem war er 14 Jahre lang bei SAP tätig. Zuletzt verantwortete er als Sales Director SAP Business Intelligence, Master Data Management und Enterprise Portale drei Jahre lang das Geschäft in der Region Central EMEA.
Eine schlechte Datenqualität kann sich heute kein Unternehmen mehr leisten. Für eine individuelle Kundenansprache braucht es korrekte Informationen - womit viele Verantwortliche noch immer zu kämpfen haben.
Wie qualitativ hochwertig sind Ihre Daten?
Wie qualitativ hochwertig sind Ihre Daten?
Foto: Steria Mummert

Für die meisten Unternehmen waren Daten aller Art bisher entweder ein Nebenprodukt ihrer Geschäftstätigkeit oder ein notwendiges Übel, das in erster Linie dort zu bewältigen war, wo die Daten anfielen - meist in den jeweiligen Abteilungen. Im Zuge der Big-Data-Debatte rückt nun allerdings der geschäftliche Nutzen von Daten zunehmend in den Fokus des Interesses. Unternehmen stehen vor der Herausforderung, das wachsende Datenaufkommen technisch zu bewältigen und in ihren Geschäftsprozessen effizient zu nutzen. Dazu gehört auch, den Erfolg eines datengetriebenen Geschäfts messbar zu machen.

In diesem Zuge fördert der Bedeutungswandel von Daten allerdings oft ein großes Defizit zu Tage: die schlechte Datengrundlage. Diese wurde in einzelnen Abteilungen bisher entweder zähneknirschend hingenommen oder wollten auch gar nicht wahrgenommen werden. Insbesondere im Kontakt mit den Kunden wird der Einfluss von korrekten und vollständigen Daten auf den Geschäftserfolg schnell sichtbar. Kunden erwarten von Unternehmen, dass diese über die Geschäftsbeziehung an jedem Kontaktpunkt vollständig und aktuell informiert sind. Insbesondere kundenzentrierte Unternehmen sind stark gefordert.

In der Praxis lässt sich diese Erwartung wegen Mängeln im Datenbestand und beim Datenmanagement allerdings oft nicht erfüllen. Und auch nach innen hat mangelhafte Datenqualität schnell harte Auswirkungen, die sich in Euro und Cent beziffern lassen: Dem Vertrieb entgehen Cross- und Up-Selling-Potenziale, das Marketing verbrennt durch falsche Zielgruppensegmentierung unnötig Geld und die Buchhaltung erstellt womöglich fehlerhafte Rechnungen, die Kunden verärgern. Diese und weitere Szenarien könnten sich jedoch durch einen einheitlichen, vollständigen und aktuellen Informationsstand über die Kunden vermeiden lassen.

Was ist Datenqualitäts-Management?

Vieles hängt also an der Datenqualität. Es gilt sie zu verbessern und laufend zu managen. Das ist keine Einmalaufgabe, denn fast alle Daten in Unternehmen, Kundendaten zumal, unterliegen ständigen Veränderungen. Ziel muss es deshalb sein, sicherzustellen, dass Kundeninformationen konstant einheitlich, vollständig und aktuell vorliegen. Dennoch verbessern Unternehmen ihre Datenqualität meist nur phasenweise, weil etwa ein neues Projekt einen Anlass dazu bietet (und entsprechende Budgets zur Verfügung stehen). Im Anschluss wird die Datenqualität aber meist wieder schlechter. Das liegt in der Natur der Sache, denn Daten ändern sich durch neue Gegebenheiten, beispielsweise durch die Änderung der Mobilfunknummer oder der Adresse.

Ist die Rede von einem Management der Datenqualität, handelt es sich um eine Vorgehensweise, die die Datenqualität über den gesamten Lebenszyklus der Daten hinweg sicherstellt - von der Erfassung über ihre Speicherung und Nutzung bis zu ihrer Archivierung und Löschung. Zum Einsatz kommt dabei gemeinhin der Regelkreisansatz ("closed loop") aus dem Total Quality Management. Zu Beginn werden die Kundendaten bereits während der Datenerfassung mittels Datenqualitäts-Services geprüft. Fehlerhafte Kundendaten, die nicht automatisch bereinigt werden können, werden in einer Zwischendatenbank gespeichert und ein Bericht oder Alert an die Eingabestelle geschickt, so dass diese korrigierend eingreifen kann.

Mit diesem Kreislauf lassen sich Kundendaten kontinuierlich während der Erfassung und Bearbeitung überprüfen. Werden über diese Prozesse regelmäßig Berichte verfasst (etwa über ein Data Quality Dashboard), können Anwender die Leistung des geschlossenen Regelkreises für das Datenqualitäts-Management messen (Performance Management) und der Prozess kontinuierlich verbessern. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau.

Datenqualität hört an dieser Stelle aber nicht auf. Unternehmen sind überwiegend so strukturiert, dass das Datenqualitäts-Management einen übermäßigen Aufwand erzeugt, weil die Datenhoheit meist bei den Abteilungen liegt. So können unterschiedliche Abteilungen oder neu erschlossene Geschäftsfelder nicht auf alle Kundendaten im Unternehmen zugreifen. Die Datentöpfe passen nicht zusammen. Das Management der Datenqualität bleibt in solchen Konstellationen auf voneinander getrennte Systemsilos beschränkt. Diese beherbergen zwar eine Menge an Kundendaten, die durch Zusammenführung mit unternehmensweit verfügbaren Daten in ihrer Qualität verbessert und angereichert werden könnten. Doch de facto verursachen die bestehenden Strukturen und Prozesse hohe Kosten durch Redundanzen.

Und was noch schwerer wiegt: Unternehmen verspielen das große Potenzial, das in ihren Datenbanken liegt - nämlich die Chance auf eine einheitliche Sicht auf ihre Kunden. Die Realität ist ernüchternd, denn den Unternehmen fehlt es an Überblick und ihr Management kann sich kaum auf die Daten als Basis für Entscheidungen und Maßnahmen verlassen. Fehlentscheidungen und Fehlinvestitionen können die teure Folge sein. Die Notwendigkeit für Datenqualität ist offensichtlich. Damit der Erfolg eines umfassenden Datenqualitäts-Managements aber tatsächlich auf die tägliche Arbeit der Mitarbeiter und den Geschäftserfolg des gesamten Unternehmens durchschlägt, ist ein Master Data Management notwendig.

Mit Master Data Management zu besseren Daten.
Mit Master Data Management zu besseren Daten.
Foto: Uniserv

Silos aufbrechen: Der Golden Record

Unternehmen müssen die Datensilos auflösen, indem sie die Verwaltung ihrer Kundendaten zentralisieren. Ziel ist der "Golden Record" - gewissermaßen die Mutter aller Datensätze, der einzig wahre Datensatz auf den sich alle operativen Systeme beziehen sollen. Technisch gibt es verschiedene Ansätze, wie Unternehmen zum Golden Record gelangen können. Der aufwändigste ist die vollständige Ablösung der einzelnen abteilungsspezifischen Datensilos durch eine zentrale Datenbank. Die Komplexität solcher Projekte ist allerdings enorm - nicht wenige scheitern aufgrund widerstrebender Interessen im Unternehmen und unerwarteter technischer Probleme.

Andere Lösungen setzen auf eine Abstraktionsebene, die den Golden Record gleichsam virtuell erstellt und den einzelnen Anwendungen nur Verknüpfungen zu dem Quelldaten anbietet. Das Verfahren ist zwar agiler als die Komplettintegration und schafft den einheitlichen Blick auf den Kunden, ändert aber nur wenig an der Ausgangslage mit vielen Datensilos und schwankender Datenqualität.

Der dritte - hybride - Ansatz kombiniert die Agilität der Datenvirtualisierung mit einer transaktionalen Komponente, die qualitätsgesicherte Daten zentral vorhält, diese aber auch bei Bedarf in die Quellsysteme zurückschreiben kann. Der Golden Record erfüllt bei diesem "Hybrid Master Data Management"-Verfahren (Hybrid MDM) seine Funktion als einheitlicher, vollständiger und aktueller Referenzpunkt an zentraler Stelle. Entsprechend kann er auch im Zuge von Data Governance Initiativen als Referenz für Compliance-konforme Prozesse dienen. Die Abteilungen, welche die Quellsysteme betreiben, haben aber die Wahl, ob sie die qualitätsgesicherten Daten zurückschreiben wollen oder nicht. Entsprechend höher sind die Erfolgsaussichten von Hybrid-MDM-Projekten.

Datenqualität unternehmensweit zu begreifen, unterscheidet sich grundlegend von herkömmlichen Datenqualitätsprojekten. Diese nehmen die meist abteilungsspezifischen Einfallstore für neue Daten ins Visier. Entsprechend fragmentiert bleiben die Erfolge. Der zentrale Ansatz und die Herangehensweise im Rahmen eines Master Data Managements sind eher dazu geeignet, das "Datenkapital" für das betreffende Unternehmen deutlich zu mehren, weil die höhere Qualität allen Datennutzern zur Verfügung steht.