Ratgeber Datenqualität

Gute Daten - schlechte Daten

12.10.2011 von Martin Bayer
Eine exklusive Umfrage der COMPUTERWOCHE hat ergeben, dass Unternehmen oft nicht wissen, wie sie eine hohe Datenqualität sicherstellen können.

Marketing-Aktionen, die haarscharf an der Zielgruppe vorbeigehen, Rechnungen, die nicht zugestellt werden können, und geschäftliche Fehlentscheidungen, weil keine belastbaren Informationen zur Verfügung stehen - solche Business-Pannen haben oft eine gemeinsame Ursache: eine mangelhafte Datenqualität. Die Folgen können verheerend sein: Falsche Zahlen oder verärgerte Kunden bringen gerade in wirtschaftlich schwierigen Zeiten Firmen schnell ins Schleudern. Doch in Zeiten, in denen immer mehr Daten in immer verteilteren Systemen immer schneller bereitgestellt werden müssen, ist das Informations-Management komplex geworden. Schludern ist nicht erlaubt: Nicht nur die Geschäftsrisiken sind beträchtlich, auch rechtliche Verstöße, die auf fehlerhaften Daten beruhen, können böse Folgen haben.

Kriterien für gute Datenqualität

Wer eine gute Datenqualität erreichen will, muss auf eine Reihe von Kriterien achten:

Lesen Sie mehr zum Thema Datenqualität:

Wie wichtig ist die Datenqualität?

Die überwiegende Mehrheit der Unternehmen hat mittlerweile erkannt, wie wichtig eine gute Datenqualität für das eigene Geschäft ist. Über 90 Prozent der Befragten gaben im Rahmen einer exklusiven COMPUTERWOCHE-Umfrage an, die Qualität der Daten sei ein Thema, das eigene Fach- und IT-Abteilungen beschäftige. Fast ein Drittel bekräftigte, sich sogar in starkem Maß um den Zustand der Firmeninformationen zu kümmern. Auch über die Folgen eines schlechten Daten-Managements herrscht Einigkeit. 92 Prozent der über 200 interviewten Manager gehen davon aus, das eigene Business würde unter schlechten Daten leiden.

Datenqualität
Gibt oder gab es in Ihrem Unternehmen Initiativen, um die Datenqualität zu verbessern?
Datenqualität
Ist die Datenqualität ein Thema in Ihrem Unternehmen, das IT- und Fachabteilungen beschäftigt?
Datenqualität
Würde das Business Ihres Unternehmens unter einer schlechten Datenqualität leiden?
Datenqualität
Wie beurteilen Sie die Datenqualität in Ihrem Unternehmen?
Datenqualität
Gibt es eine zentrale Stelle in Ihrem Unternehmen, die für die Datenqualität verantwortlich ist?
Datenqualität
Wie hoch ist aus Ihrer Sicht der Aufwand, eine gute Datenqualität in Ihrem Unternehmen sicherzustellen?
Datenqualität
Hat Ihr Unternehmen ein Budget für die Sicherung der Datenqualität?
Datenqualität
Wie hoch ist aus Ihrer Sicht die Verantwortung der Fachabteilungen, an dem Thema "Verbesserung der Datenqualität" mitzuarbeiten?

Andere Umfragen bestätigen diese Einschätzungen. So hatte eine Befragung von Pierre Audoin Consultants (PAC) in der deutschen Banken- und Versicherungsbranche 2009 ergeben, dass fast alle Unternehmen hochwertige Daten als strategischen Vermögenswert einschätzen. Gerade im Finanzsektor sei eine solide Datenbasis von entscheidender Bedeutung, sagen die PAC-Analysten. Neben einer fundierten Entscheidungsgrundlage gehe es den rund 60 von PAC befragten Managern vor allem darum, die zahlreichen Compliance-Vorschriften zu erfüllen.

Fazit: Fast alle Unternehmen bewerten eine gute Datenqualität als existenzielle Grundlage für das eigene Geschäft.

Wie gut sind die Daten?

Während sich fast alle Firmenverantwortlichen zumindest in der Theorie darüber einig sind, wie wichtig saubere Datenbestände für den Geschäftserfolg sind, bleiben in der Praxis doch etliche Fragen offen. Zwar bezeichneten in der COMPUTERWOCHE-Umfrage immerhin 87 Prozent der Befragten ihre Datenqualität grundsätzlich als gut. Allerdings lobten lediglich knapp sieben Prozent sie als sehr gut. Über 40 Prozent charakterisierten den Zustand ihrer Firmeninformationen als eher gut, was darauf hindeutet, dass es an der einen oder anderen Stelle Qualitätszweifel gibt.

Diese Unsicherheit trat auch in einer früheren Umfrage des Business Research Application Center (Barc) zutage. Von den über 100 befragten Anwenderunternehmen erklärten lediglich 40 Prozent, sie vertrauten den Daten aus ihrem SAP-System. Weitere 47 Prozent sprachen von einem "durchschnittlichen Vertrauen". Die Barc-Analysten erkennen hier deutliche Zweifel an der Qualität der SAP-Daten.

Die meisten Verantwortlichen sind sich des Problems fehlerhafter Datenbestände bewusst. Rund 83 Prozent der befragten SAP-Anwender erklärten, eine schlechte Datenqualität wirke sich negativ auf die eigene Wertschöpfung aus. Die meisten sprechen hier offenbar aus Erfahrung. Fast drei Viertel der interviewten Manager sprach von sinkender Mitarbeiterzufriedenheit infolge schlechter Datenqualität. 63 Prozent beklagten unzufriedene Kunden, und über die Hälfte sah sich mit steigenden Kosten konfrontiert.

Schlechte Daten und ihre Folgen

Während Anschreiben wie "Sehr geehrte Herr Einkaufsabteilung" vor allem peinlich sind, können Probleme mit der Datenqualität gravierendere Folgen haben, wenn es um die Erfüllung von Compliance-Regeln und weitreichende Entscheidungen zur künftigen Geschäftsstrategie geht:

  • Laut dem Lieferanten von Wirtschaftsdaten D&B kostet die schlechte Datenqualität die amerikanischen Unternehmen jährlich rund 600 Milliarden Dollar.

  • Gartner zufolge sind mehr als 25 Prozent der entscheidungsrelevanten Daten der amerikanischen Fortune-1000-Unternehmen fehlerhaft.

  • Der Online-Händler Amazon.com hat versehentlich 57.000 Bücher aus seinen Suchlisten und Verzeichnissen genommen, weil sie fälschlicherweise als Pornografie eingestuft worden waren.

Viele Unternehmen wollen Qualitätsmängel bei ihren Daten nicht einsehen. Kein Manager gibt gerne zu, dass er ein Problem mit dem Zustand seiner Daten hat, berichtet beispielsweise Otto Neuer, Deutschland-Geschäftsführer von Informatica. Dazu kommt, dass viele Unternehmen sich schwer tun, die Probleme konkret zu greifen. "Fehlerhafte Daten kommen oft erst im Data Warehouse ans Licht", schreiben die Capgemini-Manager Detlef Apel, Rüdiger Eberlein, Christian Merighi sowie Wolfgang Behme von der Continental AG in ihrem Buch "Datenqualität erfolgreich steuern". Zuvor würden Informationen über eine Vielzahl von Benutzerschnittstellen eingespeist beziehungsweise durch die Geschäftslogik in den Systemen selbst erzeugt. Passieren dabei Fehler, führt das im Datenfluss zu Folgefehlern, die sich dann leicht zu größeren Problemen aufschaukeln könnten, warnen die IT-Experten.

Datenqualität messen

In dem Buch "Datenqualität erfolgreich steuern" geben die Autoren Tipps, wie sich Datenqualität messen lässt. Dazu sollten Anwender:

Die Experten warnen jedoch, Kennzahlen überzubewerten. Zwar ließen sich damit Aussagen über die Datenqualität machen, nicht aber über das konkrete Problem oder dessen Ursachen. Mittlerweile bieten verschiedene Softwarehersteller Tools an, die die Datenqualität automatisch prüfen (Data Profiling) und Fehler nach zuvor definierten Regeln beseitigen (Data Cleansing).

"Operative Systeme arbeiten auch mit schlechten Daten weiter", warnt Eric Ecker, Geschäftsführer der Harte-Hanks Trillium Software Germany GmbH. "Dass es an der Qualität hapert, merken die Unternehmen oft erst, wenn sie bei der Datenauswertung oder dem Risiko-Management auf Ungereimtheiten stoßen." Dann hätten die Anwender allerdings meist große Mühe herauszufinden, aus welchen Systemen die im Data Warehouse aggregierten Daten stammen.

Fazit: Grundsätzlich glauben die Unternehmen, über eine gute Datenqualität zu verfügen. Unterschwellig klingen aber häufig Zweifel durch, ob das so stimmt. Zudem fällt es oft schwer, die Ursachen schlechter Datenqualität zu erkennen und zu beseitigen.

Was tun für eine bessere Datenqualität?

Viele Unternehmen wissen zwar, dass sie etwas für eine bessere Datenqualität tun müssten, sind aber ratlos, wie sie vorgehen sollen. Neun von zehn befragten IT-Verantwortlichen bezeichnen den Aufwand, eine gute Datenqualität im eigenen Unternehmen sicherzustellen, als hoch. Über ein separates Data-Quality-Budget verfügt ein knappes Fünftel der von der COMPUTERWOCHE befragten Manager. Der Anteil am IT-Budget, den die Unternehmen für die Datenqualität aufwenden, ist teilweise nicht unerheblich. Fast ein Viertel der Firmen stecken 15 bis 25 Prozent ihrer IT-Investionen in die Datenqualität. Jeder fünfte IT-Manager klagt, dass er über zu wenig Geld für diese Aufgaben verfüge. Rund die Hälfte der Firmen mit eigenem Data-Quality-Budget charakterisiert den zur Verfügung stehenden Etat als knapp ausreichend.

Rund ein Drittel der von der COMPUTERWOCHE befragten Firmen hat bereits Initiativen für eine Verbesserung der Datenqualität gestartet. Weitere 38 Prozent planen Maßnahmen in diese Richtung. Der Erfolg ist den Umfrageergebnissen zufolge ordentlich, aber nicht überragend. Knapp die Hälfte der Befragten charakterisiert ihre Initiativen als erfolgreich, weitere 37 Prozent zumindest als eher erfolgreich. Das Wort Fehlschlag nehmen gute elf Prozent der IT-Verantwortlichen in den Mund, von einem "vollen Erfolg" will niemand sprechen. Zu den drei wichtigsten Zielen, die Unternehmen mit einer hohen Datenqualität erreichen wollen, zählen bessere Prozesse (59 Prozent), zufriedener Kunden (55 Prozent) und höhere Effizienz (54 Prozent). Mit deutlichem Abstand folgen Kosteneinsparungen und mehr Produktivität mit jeweils 41 Prozent der Nennungen.

Aus Sicht der Experten von Barc fehlt vielen Unternehmen ein Plan, wie sie entsprechende Projekte angehen sollten. Bei rund der Hälfte der Befragen stehe zwar Maßnahmen an, doch diese werden meist manuell vollzogen und fallen punktuell aus. Ein System steckt Barc zufolge nicht dahinter. So verwundert es auch nicht, dass nur eines von zehn Unternehmen ein Data-Governance-Programm betreibt, um seine Datenqualität zielgerichtet zu verbessern und dem eigenen Geschäft valide und konsistente Informationen zur Verfügung stellen kann. Auch die PAC-Analysten sehen an dieser Stelle Verbesserungsbedarf. Lediglich ein Viertel der 60 befragten deutschen Banken und Versicherungen sehen das Daten-Management als strategische Aufgabe an. In je einem Viertel der Finanzinstitute erfolgt es auf Applikationsebene, in einzelnen Business Units beziehungsweise über mehrere Fachbereiche hinweg.

Insgesamt müssten die Unternehmen darauf achten, dass Datenqualität keine Einmal-Aktion im Rahmen eines Projektes bleibe, mahnen die Capgemini-Experten. Die Verantwortlichen müssten eine permanente Aufgabe daraus machen. Dazu gelte es, bei den Mitarbeitern ein Bewusstsein für das Thema zu schaffen. "Nur so lässt sich langfristig und nachhaltig eine bessere Datenqualität sicherstellen."

Fazit: Maßnahmen für eine bessere Datenqualität sind aufwendig. Unternehmen sollten ihre Initiativen sorgfältig und langfristig planen, um den Erfolg der Aktionen zu gewährleisten.

Wer kümmert sich um die Datenqualität?

In vielen Unternehmen herrscht Unsicherheit, wie Initiativen zur Sicherung der Datenqualität organisiert werden sollten. Einigkeit gibt es lediglich darüber, dass es nicht allein die Angelegenheit der IT-Abteilung sein kann, sich um die Daten zu kümmern. Rund 86 Prozent der von der COMPUTERWOCHE befragten Manager sehen die Fachabteilungen in der Pflicht, ihren Beitrag für eine bessere Datenqualität zu leisten, 41 Prozent verstehen deren Verantwortung sogar als sehr hoch.

Doch obwohl den Verantwortlichen klar ist, dass für eine bessere Datenqualität verschiedene Unternehmensbereiche zusammenarbeiten müssen, gibt es laut COMPUTERWOCHE-Umfrage nur in einem Drittel aller Firmen eine zentrale Stelle, die entsprechende Initiativen koordiniert. 17 Prozent der Befragten gaben an, eine Koordinierungsstelle zu planen, in fast der Hälfte aller Unternehmen existiert jedoch kein zentraler Drehpunkt für die Aktionen rund um eine bessere Datenqualität. Darüber hinaus gibt es unterschiedliche Ansichten, wo eine solche Position angesiedelt sein sollte. 44 Prozent der interviewten Manager meinen, ein Data Quality Competence Center müsse in der IT-Abteilung verankert sein, knapp 53 Prozent der Unternehmen, die ihre Vorhaben rund um die Datenqualität bereits zentral organisieren, tun dies aber auf Ebene der Fachabteilungen.

Barc empfiehlt, dass die Fachabteilungen die Verantwortung für die Datenqualität übernehmen. Nur fachlich versierte Mitarbeiter könnten inhaltliche Datenqualität beurteilen. Eine Verlagerung auf die IT-Abteilung sei grundsätzlich zu hinterfragen. Wie unsicher die Anwender in dieser Frage sind, zeigt die Barc-Analyse: In 56 Prozent aller Unternehmen liegt die Verantwortung in der "Zusammenarbeit zwischen Fach- und IT-Abteilung". 15 Prozent weisen die Verantwortung entweder der IT zu, 27 Prozent den Business Units. Die Barc-Experten gehen davon aus, dass im Zuge der von vielen Unternehmen forcierten IT- und fachabteilungsübergreifenden Business-Intelligence-Kompetenzzentren auch Initiativen für eine Verbesserung der Datenqualität profitieren werden. Gerade bei diesem Thema könne nur ein Zusammenwirken von technischen und fachlichen Verantwortlichen und Methoden erfolgreich sein.

Datenqualität lässt sich nicht allein mit technischen Mitteln durchsetzen, sagen auch die Fraunhofer-Experten. Im gesamten Unternehmen müsse der Wert von hochwertigen Informationen klar vermittelt und eine Datenkultur etabliert werden. Das erfordere die Unterstützung des Managements. Viele US-Unternehmen hätten mittlerweile die Rolle des Data Steward definiert. Er sei für die Einhaltung von entsprechenden Richtlinien verantwortlich. Dazu brauche er neben technischem Verständnis auch ein gewisses Durchsetzungsvermögen.

Fazit: Den Unternehmen ist klar, dass neben der IT auch die Fachabteilungen ihren Beitrag für eine bessere Datenqualität im Unternehmen leisten müssen. Da jedoch verschiedene Abteilungen zu koordinieren sind, sollten Datenaktionen zentral organisiert werden.

Müll rein - Müll raus

Längst hat sich das Thema Business Intelligence über das reine Reporting hinaus weiterentwickelt. Predictive Analytics heißt der Trend, von dem man sich in den Vorstandsetagen eine bessere Grundlage für künftige Geschäftsentscheidungen erhofft. Doch valide Business-Prognosen sind ohne solide Datenbasis nicht machbar. "Denn nur aus hochwertigen Daten lassen sich auch hochwertige Ergebnisse erzielen", sagt Jochen Kokemüller vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO). Fütterten die Anwender ihre BI-Systeme mit Müll, bekämen sie auch wieder Müll heraus.

In sechs Schritten zum Stammdaten-Management

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) beschreibt in seiner Studie "Stammdaten-Management-Systeme 2009" einen Sechs-Stufen-Plan, wie Anwender ein funktionierendes Stammdaten-Management aufbauen sollten:

  1. Datenanalyse: Analyse des Datenbestands sowie die Identifikation der Systeme, welche Stammdaten enthalten. Die Datenstrukturen dieser Systeme müssen bis auf Attributsebene analysiert werden. Das führt zu einem zentralen Management aller Metadaten sowie Datenstrukturen. Dabei gilt es neben der reinen Datenstruktur auch organisatorische Aspekte zu beachten, beispielsweise welche Systeme welche Datenobjekte verwenden.

  2. Datenmodell: Zunächst müssen alle zu integrierenden Teilschemata sowie die Reihenfolge der Integration festgelegt werden. Im folgenden Schemavergleich werden Korrespondenzen und semantische Korrelationen ermittelt. Mögliche Konflikte lassen sich durch eine Schemaangleichung beheben. Mit der abschließenden Schemafusion erhalten Anwender ein integriertes Datenmodell.

  3. Datenqualität: Im Zuge einer Datenanalyse geht es darum, die Datenqualität zu erhöhen. Dafür gibt es verschiedene Methoden: Beispielsweise statistische Analysen, um unnatürliche Häufungen zu erkennen (Mitarbeiter wählen immer die erste Option in einer Liste aus), Identifikation von Permutationen (Horst, Müller - Müller, Horst) und Bereinung solcher Dubletten sowie Abgleich mit externen Quellen wie zum Beispiel Adressdatenbanken.

  4. Datenintegration: Ziel ist es, die Datensätze aus verschiedenen Systemen zusammenzuführen und künftig zentral zu verwalten. Dies beruht auf Heuristiken, die eine Aussage treffen, welche Datensätze wahrscheinlich identisch sind. Am Ende liegen alle Daten in der zentralen Stammdatenverwaltung. Darüber hinaus gilt es in diesem Schritt, je nach IT-Architektur die technische Integration der Daten in die Fachanwendungen umzusetzen.

  5. Datenanreicherung: Die Datenqualität lässt sich durch Anreicherung mit weiteren Informationen erhöhen. Dazu werden externe Quellen herangezogen: beispielsweise Listenabgleiche zur Betrugsbekämpfung oder Abfragen an Auskunfteien (Schufa).

  6. Datenkontrolle: Nach Schritt fünf verfügen Anwender über eine hochwertige Datenbasis, allerdings sind diese Abbild eines bestimmten Zeitpunkts. Deshalb gilt es, die Datenqualität im Prozess künftiger Veränderungen zu verankern, beispielsweise mit Hilfe von semantischen und syntaktischen Regeln für die Dateneingabe. Außerdem können Prozesse implementiert werden, wonach Änderungen erst durch einen Datenqualitätsbeauftragten freigegeben werden.