Gute Daten – schlechte Daten

08.03.2010
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Eine exklusive Umfrage der COMPUTERWOCHE hat ergeben, dass Unternehmen oft nicht wissen, wie sie eine hohe Datenqualität sicherstellen können.

Marketing-Aktionen, die haarscharf an der Zielgruppe vorbeigehen, Rechnungen, die nicht zugestellt werden können, und geschäftliche Fehlentscheidungen, weil keine belastbaren Informationen zur Verfügung stehen – solche Business-Pannen haben oft eine gemeinsame Ursache: eine mangelhafte Datenqualität. Die Folgen können verheerend sein: Falsche Zahlen oder verärgerte Kunden bringen gerade in wirtschaftlich schwierigen Zeiten Firmen schnell ins Schleudern. Doch in Zeiten, in denen immer mehr Daten in immer verteilteren Systemen immer schneller bereitgestellt werden müssen, ist das Informations-Management komplex geworden. Schludern ist nicht erlaubt: Nicht nur die Geschäftsrisiken sind beträchtlich, auch rechtliche Verstöße, die auf fehlerhaften Daten beruhen, können böse Folgen haben.

Wie wichtig ist die Datenqualität?

Die überwiegende Mehrheit der Unternehmen hat mittlerweile erkannt, wie wichtig eine gute Datenqualität für das eigene Geschäft ist. Über 90 Prozent der Befragten gaben im Rahmen einer exklusiven Computerwoche-Umfrage an, die Qualität der Daten sei ein Thema, das eigene Fach- und IT-Abteilungen beschäftige. Fast ein Drittel bekräftigte, sich sogar in starkem Maß um den Zustand der Firmeninformationen zu kümmern. Auch über die Folgen eines schlechten Daten-Managements herrscht Einigkeit. 92 Prozent der über 200 interviewten Manager gehen davon aus, das eigene Business würde unter schlechten Daten leiden.

Andere Umfragen bestätigen diese Einschätzungen. So hatte eine Befragung hätzen. Gerade im Finanzsektor sei eine solide Datenbasis von entscheidender Bedeutung, sagen die PAC-Analysten. Neben einer fundierten Entscheidungsgrundlage gehe es den rund 60 von PAC befragten Managern vor allem darum, die zahlreichen Compliance-Vorschriften zu erfüllen.

Fazit: Fast alle Unternehmen bewerten eine gute Datenqualität als existenzielle Grundlage für das eigene Geschäft.

Wie gut sind die Daten?

Während sich fast alle Firmenverantwortlichen zumindest in der Theorie darüber einig sind, wie wichtig saubere Datenbestände für den Geschäftserfolg sind, bleiben in der Praxis doch etliche Fragen offen. Zwar bezeichneten in der Computerwoche-Umfrage immerhin 87 Prozent der Befragten ihre Datenqualität grundsätzlich als gut. Allerdings lobten lediglich knapp sieben Prozent sie als sehr gut. Über 40 Prozent charakterisierten den Zustand ihrer Firmeninformationen als eher gut, was darauf hindeutet, dass es an der einen oder anderen Stelle Qualitätszweifel gibt.

Diese Unsicherheit trat in einer Umfrage des Business Research Application Center (Barc) aus dem vergangenen Jahr zutage. Von den über 100 befragten Anwenderunternehmen erklärten lediglich 40 Prozent, sie vertrauten den Daten aus ihrem SAP-System. Weitere 47 Prozent sprachen von einem "durchschnittlichen Vertrauen". Die Barc-Analysten erkennen hier deutliche Zweifel an der Qualität der SAP-Daten.

Die meisten Verantwortlichen sind sich des Problems fehlerhafter Datenbestände bewusst. Rund 83 Prozent der befragten SAP-Anwender erklärten, eine schlechte Datenqualität wirke sich negativ auf die eigene Wertschöpfung aus. Die meisten sprechen hier offenbar aus Erfahrung. Fast drei Viertel der interviewten Manager sprachen von sinkender Mitarbeiterzufriedenheit infolge schlechter Datenqualität. 63 Prozent beklagten unzufriedene Kunden, und über die Hälfte sah sich mit steigenden Kosten konfrontiert.

Viele Unternehmen wollen Qualitätsmängel bei ihren Daten nicht einsehen. Kein Manager gibt gerne zu, dass er ein Problem mit dem Zustand seiner Daten hat, berichtet beispielsweise Otto Neuer, Deutschland-Geschäftsführer von Informatica. Dazu kommt, dass viele Unternehmen sich schwertun, die Probleme konkret zu greifen. "Fehlerhafte Daten kommen oft erst im Data Warehouse ans Licht", schreiben die Capgemini-Manager Detlef Apel, Rüdiger Eberlein, Christian Merighi sowie Wolfgang Behme von der Continental AG in ihrem Buch "Datenqualität erfolgreich steuern". Zuvor würden Informationen über eine Vielzahl von Benutzerschnittstellen eingespeist beziehungsweise durch die Geschäftslogik in den Systemen selbst erzeugt. Passieren dabei Fehler, führt das im Datenfluss zu Folgefehlern, die sich dann leicht zu größeren Problemen aufschaukeln könnten, warnen die IT-Experten.

"Operative Systeme arbeiten auch mit schlechten Daten weiter", mahnt Eric Ecker vom zu SAS Institute gehörenden Datenintegrationsspezialisten Dataflux. "Dass es an der Qualität hapert, merken die Unternehmen oft erst, wenn sie bei der Datenauswertung oder dem Risiko-Management auf Ungereimtheiten stoßen." Dann hätten die Anwender allerdings meist große Mühe herauszufinden, aus welchen Systemen die im Data Warehouse aggregierten Daten stammen.

Fazit: Grundsätzlich glauben die Unternehmen, über eine gute Datenqualität zu verfügen. Unterschwellig klingen aber häufig Zweifel durch, ob das so stimmt. Zudem fällt es oft schwer, die Ursachen schlechter Datenqualität zu erkennen und zu beseitigen.

Was tun für bessere Daten?

Viele Unternehmen wissen zwar, dass sie etwas für eine bessere Datenqualität tun müssten, sind aber ratlos, wie sie vorgehen sollen. Neun von zehn befragten IT-Verantwortlichen bezeichnen den Aufwand, eine gute Datenqualität im eigenen Unternehmen sicherzustellen, als hoch. Über ein separates Data-Quality-Budget verfügt ein knappes Fünftel der von der Computerwoche befragten Manager. Der Anteil am IT-Budget, den die Unternehmen für die Datenqualität aufwenden, ist teilweise nicht unerheblich. Fast ein Viertel der Firmen stecken 15 bis 25 Prozent ihrer IT-Investionen in die Datenqualität. Jeder fünfte IT-Manager klagt, dass er über zu wenig Geld für diese Aufgaben verfüge. Rund die Hälfte der Firmen mit eigenem Data-Quality-Budget charakterisiert den zur Verfügung stehenden Etat als knapp ausreichend.

Rund ein Drittel der von der Computerwoche befragten Firmen hat bereits Initiativen für eine Verbesserung der Datenqualität gestartet. Weitere 38 Prozent planen Maßnahmen in diese Richtung. Der Erfolg ist den Umfrageergebnissen zufolge ordentlich, aber nicht überragend. Knapp die Hälfte der Befragten charakterisiert ihre Initiativen als erfolgreich, weitere 37 Prozent zumindest als eher erfolgreich. Das Wort Fehlschlag nehmen gute elf Prozent der IT-Verantwortlichen in den Mund, von einem "vollen Erfolg" will niemand sprechen. Zu den drei wichtigsten Zielen, die Unternehmen mit einer hohen Datenqualität erreichen wollen, zählen bessere Prozesse (59 Prozent), zufriedenere Kunden (55 Prozent) und höhere Effizienz (54 Prozent). Mit deutlichem Abstand folgen Kosteneinsparungen und mehr Produktivität mit jeweils 41 Prozent der Nennungen.

Aus Sicht der Experten von Barc fehlt vielen Unternehmen ein Plan, wie sie entsprechende Projekte angehen sollen. Bei rund der Hälfte der Befragen stehen zwar Maßnahmen an, doch diese werden meist manuell vollzogen und setzen nur punktuell an. Ein System steckt Barc zufolge nicht dahinter. So verwundert es auch nicht, dass nur eines von zehn Unternehmen ein DataGovernance-Programm betreibt, um seine Datenqualität zielgerichtet zu verbessern und dem eigenen Geschäft valide und konsistente Informationen zur Verfügung zu stellen. Auch die PAC-Analysten sehen an dieser Stelle Verbesserungsbedarf. Lediglich ein Viertel der 60 befragten deutschen Banken und Versicherungen betrachten das Daten-Management als strategische Aufgabe. In je einem Viertel der Finanzinstitute erfolgt es auf Applikationsebene, in einzelnen Business Units beziehungsweise über mehrere Fachbereiche hinweg.

Insgesamt müssten die Unternehmen darauf achten, dass Datenqualität keine Einmal-Aktion im Rahmen eines Projekts bleibe, mahnen die Capgemini-Experten. Die Verantwortlichen müssten eine permanente Aufgabe daraus machen. Dazu gelte es, bei den Mitarbeitern ein Bewusstsein für das Thema zu schaffen. "Nur so lässt sich langfristig und nachhaltig eine bessere Datenqualität sicherstellen."

Fazit: Maßnahmen für eine bessere Datenqualität sind aufwendig. Unternehmen sollten ihre Initiativen sorgfältig und langfristig planen, um den Erfolg der Aktionen zu gewährleisten.

Wer kümmert sich um die Daten?

In vielen Unternehmen herrscht Unsicherheit, wie Initiativen zur Sicherung der Datenqualität organisiert werden sollten. Einigkeit gibt es lediglich darüber, dass es nicht allein die Angelegenheit der IT-Abteilung sein kann, sich um die Daten zu kümmern. Rund 86 Prozent der von der Computerwoche befragten Manager sehen die Fachabteilungen in der Pflicht, ihren Beitrag für eine bessere Datenqualität zu leisten, 41 Prozent verstehen deren Verantwortung sogar als sehr hoch.

Doch obwohl den Verantwortlichen klar ist, dass für eine bessere Datenqualität verschiedene Unternehmensbereiche zusammenarbeiten müssen, gibt es laut CW-Umfrage nur in einem Drittel aller Firmen eine zentrale Stelle, die entsprechende Initiativen koordiniert. 17 Prozent der Befragten gaben an, eine Koordinierungsstelle zu planen, in fast der Hälfte aller Unternehmen existiert jedoch kein zentraler Drehpunkt für die Aktionen rund um eine bessere Datenqualität. Darüber hinaus gibt es unterschiedliche Ansichten, wo eine solche Position angesiedelt sein sollte. 44 Prozent der interviewten Manager meinen, ein Data Quality Competence Center müsse in der IT-Abteilung verankert sein, knapp 53 Prozent der Unternehmen, die ihre Vorhaben rund um die Datenqualität bereits zentral organisieren, tun dies aber auf Ebene der Fachabteilungen.

Barc empfiehlt, dass die Fachabteilungen die Verantwortung für die Datenqualität übernehmen. Nur fachlich versierte Mitarbeiter könnten inhaltliche Datenqualität beurteilen. Eine Verlagerung auf die IT-Abteilung sei grundsätzlich zu hinterfragen. Wie unsicher die Anwender in dieser Frage sind, zeigt die Barc-Analyse: In 56 Prozent aller Unternehmen liegt die Verantwortung in der "Zusammenarbeit zwischen Fach- und IT-Abteilung". 15 Prozent weisen die Verantwortung der IT zu, 27 Prozent den Business Units. Die Barc-Experten gehen davon aus, dass im Zuge der von vielen Unternehmen forcierten IT- und fachabteilungsübergreifenden Business-Intelligence-Kompetenzzentren auch Initiativen für eine Verbesserung der Datenqualität profitieren werden. Gerade bei diesem Thema könne nur ein Zusammenwirken von technischen und fachlichen Verantwortlichen und Methoden erfolgreich sein.

Datenqualität lässt sich nicht allein mit technischen Mitteln durchsetzen, sagen auch die Experten von Fraunhofer. Im gesamten Unternehmen müsse der Wert von hochwertigen Informationen klar vermittelt und eine Datenkultur etabliert werden. Das erfordere die Unterstützung des Managements. Viele US-Unternehmen hätten mittlerweile die Rolle des Data Steward definiert. Er sei für die Einhaltung von entsprechenden Richtlinien verantwortlich. Dazu brauche er neben technischem Verständnis auch ein gewisses Durchsetzungsvermögen.

Fazit: Den Unternehmen ist klar, dass neben der IT auch die Fachabteilungen ihren Beitrag für eine bessere Datenqualität im Unternehmen leisten müssen. Da jedoch verschiedene Abteilungen zu koordinieren sind, sollten Datenaktionen zentral organisiert werden.

Müll rein – Müll raus

Längst hat sich das Thema Business Intelligence über das reine Reporting hinaus weiterentwickelt. Predictive Analytics heißt der Trend, von dem man sich in den Vorstandsetagen eine bessere Grundlage für künftige Geschäftsentscheidungen erhofft. Doch valide Business-Prognosen sind ohne solide Datenbasis nicht machbar. "Denn nur aus hochwertigen Daten lassen sich auch hochwertige Ergebnisse erzielen", sagt Jochen Kokemüller vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO). Fütterten die Anwender ihre BI-Systeme mit Müll, bekämen sie auch wieder Müll heraus.

Kriterien für gute Datenqualität

Wer eine gute Datenqualität erreichen will, muss auf eine Reihe von Kriterien achten:

  • Korrektheit: Die Daten müssen mit der Realität übereinstimmen.

  • Konsistenz: Ein Datensatz darf in sich und zu anderen Datensätzen keine Widersprüche aufweisen.

  • Zuverlässigkeit: Die Entstehung der Daten muss nachvollziehbar sein.

  • Vollständigkeit: Ein Datensatz muss alle notwendigen Attribute enthalten.

  • Genauigkeit: Die Daten müssen in der jeweils geforderten Exaktheit vorliegen (Beispiel: Nachkommastellen).

  • Aktualität: Alle Datensätze müssen jeweils dem aktuellen Zustand der abgebildeten Realität entsprechen.

  • Redundanzfreiheit: Innerhalb der Datensätze dürfen keine Dubletten vorkommen.

  • Relevanz: Der Informationsgehalt von Datensätzen muss den jeweiligen Informationsbedarf erfüllen.

  • Einheitlichkeit: Die Informationen eines Datensatzes müssen einheitlich strukturiert sein.

  • Eindeutigkeit: Jeder Datensatz muss eindeutig interpretierbar sein.

  • Verständlichkeit: Die Datensätze müssen in ihrer Begrifflichkeit und Struktur mit den Vorstellungen der Fachbereiche übereinstimmen.

In sechs Schritten zum Stammdaten-Management

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) beschreibt in seiner Studie "Stammdaten-Management-Systeme 2009" einen Sechs-Stufen-Plan, wie Anwender ein funktionierendes Stammdaten-Management aufbauen sollten:

  1. Datenanalyse: Analyse des Datenbestands sowie Identifikation der Systeme, welche Stammdaten enthalten. Die Datenstrukturen dieser Systeme müssen bis auf Attributsebene analysiert werden. Das führt zu einem zentralen Management aller Metadaten sowie Datenstrukturen. Dabei gilt es neben der reinen Datenstruktur auch organisatorische Aspekte zu beachten, beispielsweise welche Systeme welche Datenobjekte verwenden.

  2. Datenmodell: Zunächst müssen alle zu integrierenden Teilschemata sowie die Reihenfolge der Integration festgelegt werden. Im folgenden Schemavergleich werden Korrespondenzen und semantische Korrelationen ermittelt. Mögliche Konflikte lassen sich durch eine Schemaangleichung beheben. Mit der abschließenden Schemafusion erhalten Anwender ein integriertes Datenmodell.

  3. Datenqualität: Im Zuge einer Datenanalyse geht es darum, die Datenqualität zu erhöhen. Dafür gibt es verschiedene Methoden: Beispielsweise statistische Analysen, um unnatürliche Häufungen zu erkennen (Mitarbeiter wählen immer die erste Option in einer Liste aus), Identifikation von Permutationen (Horst, Müller – Müller, Horst) und Bereinigung solcher Dubletten sowie Abgleich mit externen Quellen wie zum Beispiel Adressdatenbanken.

  4. Datenintegration: Ziel ist es, die Datensätze aus verschiedenen Systemen zusammenzuführen und künftig zentral zu verwalten. Dies beruht auf Heuristiken, die eine Aussage treffen, welche Datensätze wahrscheinlich identisch sind. Am Ende liegen alle Daten in der zentralen Stammdatenverwaltung. Darüber hinaus gilt es in diesem Schritt, je nach IT-Architektur die technische Integration der Daten in die Fachanwendungen umzusetzen.

  5. Datenanreicherung: Die Datenqualität lässt sich durch Anreicherung mit weiteren Informationen erhöhen. Dazu werden externe Quellen herangezogen: beispielsweise Listenabgleiche zur Betrugsbekämpfung oder Abfragen an Auskunfteien (Schufa).

  6. Datenkontrolle: Nach Schritt fünf verfügen Anwender über eine hochwertige Datenbasis, die allerdings nur einen bestimmten Zeitpunkt abbildet. Deshalb gilt es, die Datenqualität im Prozess künftiger Veränderungen zu verankern, beispielsweise mit Hilfe von semantischen und syntaktischen Regeln für die Dateneingabe. Außerdem können Prozesse implementiert werden, wonach Änderungen erst durch einen Datenqualitätsbeauftragten freigegeben werden.

Teure Datenfehler

Während Anschreiben wie "Sehr geehrte Herr Einkaufsabteilung" vor allem peinlich sind, können Probleme mit der Datenqualität gravierendere Folgen haben, wenn es um die Erfüllung von Compliance-Regeln und weitreichende Entscheidungen zur künftigen Geschäftsstrategie geht:

  • Laut dem Lieferanten von Wirtschaftsdaten D&B kostet schlechte Datenqualität die amerikanischen Unternehmen jährlich rund 600 Milliarden Dollar.

  • Gartner zufolge sind mehr als 25 Prozent der entscheidungsrelevanten Daten der amerikanischen Fortune-1000-Unternehmen fehlerhaft.

  • Der Online-Händler Amazon.com hat versehentlich 57.000 Bücher aus seinen Suchlisten und Verzeichnissen genommen, weil sie fälschlicherweise als Pornografie eingestuft worden waren.

Studien zur Datenqualität

  • Die COMPUTERWOCHE hat im Februar und März dieses Jahres 241 Manager online befragt.

  • Barc hat zwischen Mitte Juni und Mitte Juli 2009 IT-affine Mitarbeiter aus IT- und Fachabteilungen befragt. Es haben sich 111 Personen beteiligt.

  • Pierre Audoin Consultants (PAC) hat im Juni vergangenen Jahres im Auftrag des Daten-Management-Spezialisten Dataflux 60 deutsche Banken und Versicherungen zum Thema Datenqualität befragt.