Spezialagenten der Datenqualität

15.11.2007
Ihr Name: Data-Quality-Manager. Ihre Mission: Wettbewerbsvorteile durch gute Daten.
Vor allem Desinteresse und Organisationsmangel verhindern ein systematisches Datenqualitäts-Management.
Vor allem Desinteresse und Organisationsmangel verhindern ein systematisches Datenqualitäts-Management.

Um was geht es beim Data-Quality-Management? Die Antwort kennt niemand besser als der amerikanische Datenqualitäts-Papst Richard Wang. Seit mehr als 20 Jahren forscht der Informatiker am Massachusetts Institute of Technology (MIT) über Informationsqualität. "Information-Quality-Management oder auch Data-Quality-Management umfasst alle Aktivitäten, um einem Endanwender hochwertige Informationen zu liefern, die er wirklich nutzen kann. Es geht darum, Datenqualität zu definieren, zu messen, zu analysieren und kontinuierlich zu verbessern", erklärt der 54-jährige Begründer dieser Disziplin. Das hört sich theoretisch einfach an, erweist sich in der Praxis aber als schwierig.

Hier lesen Sie ...

wie der Alltag eines Daten-Qualitäts-Managers aussieht;

wie man Data-Quality-Manager wird;

warum es sich für ein Unternehmen lohnt, einen solchen Experten einzustellen.

Mehr zum Thema

www.computerwoche.de/

598378: Mangelnde Datenqualität in Deutschland;

596333: Datenqualitäts-Check;

557518: Gute Geschäftsinformationen.

Ein Beispiel: Großbritannien setzt in der Verbrechensbekämpfung auf die größte Gendatenbank der Welt mit mehr als vier Millionen Einträgen. Die frühere Sammlung mit klassischen Fingerabdrücken ist abgelöst. Doch wie sich inzwischen herausstellte, ist jeder siebte Datensatz fehlerhaft. Ein falsch geschriebener Name macht aus einem unbescholtenen Bürger schnell einen Tatverdächtigen. Diese Schlampigkeit wäre mit einem Data-Quality-Spezialagenten mit entsprechenden Tools nicht passiert.

Langfristige Betrachtung

"Es geht nicht darum, die Daten punktuell zu bereinigen. Das kann nur ein erster Schritt sein", kommentiert Niels Weigel, Leiter Business Development bei der Fuzzy Informatik AG, einem auf Datenqualitätslösungen spezialisierten Unternehmen in Stuttgart. Worauf es beim Datenqualitäts-Management ankommt, ist eine langfristige und ganzheitliche Betrachtung der Daten. "Statt ad hoc zu reagieren, gilt es, Datenqualität proaktiv zu steuern und Hand anzulegen, damit das Unternehmen in die richtige Richtung geht."

Damit ist der studierte Luft- und Raumfahrttechniker ganz auf einer Linie mit seinem wissenschaftlichen Vorbild Wang. "Informationen und Daten sind kein Abfallprodukt, sondern sollten als strategische Ressourcen behandelt werden", lautet dessen Credo. Informationen sind Macht: Die richtige Information zur richtigen Zeit für die richtige Person schafft Unternehmen einen klaren Wettbewerbsvorteil.

"Die gleichen Säue durchs Dorf"

Was das in der Praxis bedeutet, weiß Marcus Gebauer. Er gehört zur Gruppe der Spezialagenten mit der Mission Datenqualität. Der promovierte Physiker ist seit 2001 Datenqualitätsbeauftragter bei der West LB, die die Position des Data Quality Officer mitsamt einer eigenen Abteilung institutionalisiert hat. Er leitet innerhalb der Group Finance, also in der Bilanzabteilung, ein Team von vier Mitarbeitern und berichtet direkt an den Vorstand.

Er und sein Kernteam sollen in der West LB mit allen Tochtergesellschaften rund um den Globus für gute Transaktions- und Stammdaten sorgen, und zwar vom Front Office bis zum Controlling. Der 40-Jährige folgt drei Leitlinien. Der "Transparenz" gelten Fragen wie: Wie gut sind unsere Daten? Was läuft schief? Wer hat seine "Goldfinger" im Spiel? Unter dem zweiten Schlagwort "Konsequenz" geht es darum, die Datenqualitätsprobleme zu beheben. Und wie bei jeder strategischen Vorgehensweise gilt dies nicht punktuell, sondern mit dem Ziel der "Nachhaltigkeit". "Ich treibe immer wieder die gleichen Säue durchs Dorf", schmunzelt Gebauer. "Ich zeige auf, welche Vorgaben und Methoden es gibt, wie die Prozesse zur Messung aussehen, damit Reports und Berichtswesen mit einwandfreien Daten ausgestattet sind."

Bösewicht ist nicht die IT

Die Probleme, auf die Gebauer mit seinem Team stößt, sind vielfältig und drehen sich doch immer wieder um einen Angelpunkt: Kommunikation. Bei Datenqualitätsproblemen steckt der Bösewicht nicht im IT-System. Vielmehr sind die fachlichen Anforderungen an die IT nicht immer sauber definiert. Darunter leiden die Daten. Ein Beispiel: Datenfelder werden von verschiedenen Abteilungen in unterschiedlicher Absicht genutzt und so für den Data-Warehouse-Experten falsch gefüllt. Beide Abteilungen tragen etwa einen Geldbetrag ein, die eine meint Dollar, die andere aber Euro schon stimmt die Planung für das kommende Geschäftsjahr nicht mehr. Gebauer versteht sich deshalb als Moderator, der IT und Fachabteilung im wahrsten Sinne des Wortes an einen Tisch bringt. "Die wichtigste Kommunikation läuft mitunter beim Mittagessen, wenn es weniger offiziell ist", sagt der Data Quality Officer. Gute Datenqualität gebe es nur, wenn das Thema auch in den Köpfen der Fachabteilungen ankomme. Gebauer berichtet nicht nur direkt an den Chief Financial Officer, auch 38 Fachabteilungsmitarbeiter arbeiten mit dem Datenqualitätsexperten inhaltlich zusammen.

Umfassendes Know-how

Wer ein solches Team führen und die unterschiedlichen Datenperspektiven verstehen will, muss vielfältige Skills besitzen. Neben ausgeprägtem Kommunikations- und Moderationstalent sind Abstraktionsvermögen und Kenntnisse im Prozess- und Projekt-Management nötig. Generell gilt es, das Geschäft des Unternehmens zu verstehen. Neben den Soft Skills und betriebswirtschaftlichem Know-how sind IT-Kenntnisse gefragt. "Nebelkerzen werfen geht nicht, wenn man sich ernsthaft mit den Spezialisten der IT-Abteilung auseinandersetzen möchte", warnt Gebauer.

Auf umfassendes IT-Know-how zielt auch das Curriculum im Studienfach "Master of Science in Information Quality" ab. An der amerikanischen University of Arkansas at Little Rock (UALR) hat John Talburt den weltweit ersten Studiengang dieser Art eingerichtet. Der 62-jährige Informatikprofessor forscht in Kooperation mit Professor Wang vom MIT zu ganzheitlichem Datenqualitäts-Management. Von seinen Studenten erwartet er dabei neben betriebswirtschaftlichem Verständnis Grundkenntnisse in objektorientierter Programmierung, Datenbanken und Statistik. In vier praxisorientierten Jahren in Arkansas steht dann Folgendes auf dem Stundenplan: Datenbanken und IT-Systeme, Datenvisualisierung, Theorie und Strategien des Total-Information-Quality- Managements und der Umgang mit Tools für den Berufsalltag.

"Tools erlauben uns zwar keine spektakulären Stunts wie in den 007-Filmen, aber sie sind unverzichtbar, um die Dr.-No-Datensätze in der zunehmenden Datenflut zu jagen", erklärt Weigel von der Fuzzy Informatik AG. Das Unternehmen sponsert den Studiengang in Little Rock und bringt den Studenten seine Best Practices nahe. Der 39-jährige Datenqualitätsexperte Weigel sitzt nicht nur im Advisory Board der Universität, sondern hält dort auch Vorträge: "Ich habe die europäische Brille auf und versuche lebensnahe Beispiele aus unserem Alltag zu erläutern." So legt etwa ein Brief von Los Angeles nach Boston die gleiche Distanz zurück wie in Europa von Porto nach Moskau. Der Unterschied: Zeichensätze und Adressformate sind in Europa völlig verschieden. Weigel arbeitet mit Analogien, um die Bedeutung von Datenqualität zu vermitteln: "Die Qualitätssicherung des Aston Martin findet nicht erst beim Verlassen des Werksgeländes statt, sondern so früh wie möglich und fortlaufend." Schon bei der Zulieferung eines Radios wird überprüft, ob seine Dioden funktionieren. Genau so verhält es sich mit den Unternehmensdaten. Ein Endprodukt wie der Geschäftsbericht für den Vorstand wird nicht erst beim Druck auf Konsistenz geprüft. Jede einzelne Information, die in Systeme einfließt, sollte schon bei der Eingabe kontrolliert werden. Ohne Tools läuft hier nichts.

Sind Soft Skills, unternehmerisches Denken und IT-Kenntnisse vorhanden und sitzt der Umgang mit den Spezial-Tools, dann haben die Studenten der Universität Arkansas sehr gute Berufsaussichten. Professor Talburt entlässt im Dezember dieses Jahres die ersten Absolventen in den Jobmarkt. "Die Zahl der Unternehmen, die in Data-Quality-Management eine Schlüsselrolle sehen, nimmt stetig zu", erklärt er. Zwar können sich Data- Quality-Manager noch nicht in allen Firmen Hoffnungen auf die Chefebene machen, aber doch auf einen Platz im oberen Linien-Management. "Jahrelang war Datenqualität ein Stiefkind des Prozess-Managements. Doch nun bemerken wir eine Verschiebung", so Talburt. Der Professor zieht folgenden Vergleich: "Wenn Microsoft für die Informatik steht, dann steht Google für die Informationswissenschaft." Mit dem wachsenden Einfluss von Google & Co. werden Daten und Informationen immer bedeutender.

Während in der Vergangenheit die USA eine Vorreiterrolle im Data-Quality-Management gespielt haben, holen Europa und insbesondere Deutschland mit Riesenschritten auf. Unternehmen aller Art befassen sich mit dem traditionellen Bankenthema. Die wachsende Bedeutung auch für andere Branchen zeigt sich im Interesse an der Deutschen Gesellschaft für Informations- und Datenqualität (DGIQ). Sie dient als Austauschplattform für alle Themen rund um die Datenqualität. Gebauer und Weigel gehören beide dem Vorstand an: "In der steigenden Informationsflut werden richtige Informationen zum Wettbewerbsvorteil. Das kommt in den Köpfen der Linien-Manager an, und so tauschen wir bei der DGIQ regelmäßig Best Practices aus."

Technische Neuerungen werden dazu führen, dass semistrukturierte oder semantische Daten etwa aus Blogs auf den Prüfstand kommen. (hk)