Wie man bessere Stammdaten bekommt

02.06.2005
Von Arnd Oerter
Die Konsolidierung und Harmonisierung von Stammdaten verlangt ein Denken in Geschäftsprozessen, braucht eine eigene Organisation und lässt sich durch Tools vereinfachen.

Viele Unternehmen wollen ihre Kerngeschäftsprozesse über Firmen- und Ländergrenzen hinweg optimieren. Strategisches Einkaufs-Management, Supply-Chain-Management, kollaborative Produktentwicklung, Customer-Relationship-Management und flexible Produktionsverlagerungen sind nur einige Beispiele. In solchen und anderen Abläufen sind konsistente und hochwertige Stammdaten ein wesentliches Mittel, um die Geschäftsziele zu erreichen. Bei allen Projektbeteiligten muss deshalb von Anfang an ein Bewusstsein dafür geschaffen werden, wie sie durch gute Stammdaten die Geschäftsprozessverläufe positiv beeinflussen können. Nur wo dies gelingt, wird sich die Datenqualität nachhaltig verbessern.

Fehlerhafte Daten blockieren die Geschäftsprozesse

Das Stammdaten-Management wird somit zum strategischen Erfolgsfaktor und Kernprozess und von vielen Unternehmen tatsächlich auch immer mehr so verstanden. Sie erkennen, dass nicht vorhandene oder fehlerhafte Stammdaten die nachgelagerten Abläufe blockieren und verzögern können sowie die Nachbearbeitung und Korrektur aufwändig machen. Allerdings sind die Stammdatenverwal-tung und die Datenqualität nicht in erster Linie IT-Themen - vielmehr geht es vornehmlich um ein Management von Geschäftsprozessen. Denn nur wenn auch durchgängige, automatisierte Pflegeprozesse und klare organisatorische Rahmenbedingungen existieren, kann eine erstklassige Datenqualität erzielt werden.

Projekte lassen sich schrittweise umsetzen

Wie lässt sich aber nun ein solches Projekt zur Konsolidierung und Harmonisierung von Stammdaten organisieren, und welche Fragen sind dabei zu beantworten? Grundsätzlich lassen sich hier mehrere Phasen unterscheiden: Im ersten Schritt müssen die Anforderungen an die zu verwendenden Objekte und Felder geklärt werden, dass heißt, die künftigen Pflegeprozesse werden definiert und parallel zu diesen Anforderungen das Datenkonzept entwickelt. Im nächsten Schritt wird die bestehende Datenbasis anhand der vorher definierten Anforderungen bereinigt. In der letzen Phase geht es darum, dass die damit geschaffene Datenkonsistenz auch in Zukunft erhalten bleibt.

Um die Datenqualität im Unternehmen zu steigern, ist eine konsistente Datenbasis aller beteiligten Systeme notwendig. Dazu muss zunächst geklärt werden, welche Systeme welche Daten benötigen und wie die Prozesse zur Datenpflege im Einzelnen ablaufen. Der Anwender erfasst hierbei die bisher praktizierten Methoden bei der Stammdatenpflege und die dazugehörigen auslösenden und abhängigen operativen Prozesse. Inhaltlich gibt es idealtypisch drei Teilprozesse, nämlich die Einpflege neuer Daten (zum Beispiel bei einer Produkteinführung), die Änderungen beispielsweise an aktuell eingesetzen Produkten und die Archivierung und Löschung (etwa bei Produktauslauf).

Die so identifizierten Prozesse werden anschließend analysiert und optimiert, um Schwachstellen und Störfaktoren zu beseitigen. Bei der Schwachstellenanalyse der Prozesse sind wiederum verschiedene Aspekte zu berücksichtigen: So sind der Prozessablauf als solcher, die inhaltlichen Aspekte sowie der Informationsfluss und die Verantwortlichkeiten von Bedeutung. Typische Fragen, die dabei zu klären sind, drehen sich beispielsweise darum, ob ein Prozess Stammdaten zeitgerecht bereitstellen kann oder ob sich unvollständige oder veraltete Daten im Prozessverlauf rechtzeitig erkennen lassen. Ebenso wird hier untersucht, ob insbesondere in heterogenen Systemlandschaften eine Durchgängigkeit der Prozesse gewährleistet ist oder ob durch Systembrüche eine Störung im Prozess existiert.

Nachdem der Ist-Prozess mit seinen Schwachstellen und Störfaktoren bekannt ist, geht es im nächsten Schritt darum, die künftigen Pflegeprozesse zu definieren. Mit ihnen sollen sich noch vorhandene Mängel weitestgehend beseitigen lassen. Hierzu muss ein Prozesskonzept entwickelt werden, das die Soll-Vorgehensweise bei der Pflege von Stammdaten beschreibt und die zukünftigen Arbeitsabläufe und Zuständigkeiten für die Informationsbereitstellung und Pflege detailliert festlegt. Gerade in größeren Organisationen empfiehlt es sich, den Pflegeprozess durch Workflow-Funktionen weitestgehend automatisiert ablaufen zu lassen und über diesen die Datenpfleger bei ihrer Arbeit zu steuern. Dies stellt sicher, dass sie die Daten immer in der richtigen Reihenfolge und zum richtigen Zeitpunkt in die Systeme eingeben; außerdem ist jederzeit der aktuelle Prozessstatus ersichtlich.

Neben der Prozessautomatisierung gibt es weitere Möglichkeiten, die Datenqualität merklich zu erhöhen. So etwa über die Statussteuerung der Prozesse. Dabei werden signifikante Pflegezustände über einen Status (zum Beispiel Materialstatus) abgebildet und damit der Pflegefortschritt oder Verzögerungen jederzeit erkennbar. Zusätzlich empfehlen sich auch die konsequente Nutzung von Mussfeldern und die Vermeidung von Freitextfeldern oder Feldern, denen vom Anwender kein eindeutiger Wert mit Hilfe von Wertelisten zugewiesen werden kann. Eine weitere Möglichkeit ist die automatisierte Ermittlung einzelner Felder, wobei diese über definierte Regelwerte aus anderen Feldeingaben abgeleitet werden können.

Ein zentraler Aufpasser ist nötig

Als Teil des Prozesskonzeptes müssen Anwender auch die organisatorischen Zuständigkeiten klären. Gerade in größeren Unternehmen hat sich hier das Konzept aus zentraler Stammdatenkoordination und dezentraler Stammdatenpflege und -verantwortung bewährt. Die zentrale Stammdatenkoordinationsstelle ist hierbei verantwortlich für die Prozesse und Qualität, nicht aber für die Pflege und die Dateninhalte. Diese Pflicht liegt eindeutig bei den dezentralen Einheiten in der Organisation - nach dem Prinzip "Datenpflege am Ort der Datenentstehung". Gerade was die Datenqualität und die Prozessdurchlaufzeit anbelangt, hat dieses Szenario klare Vorteile gegenüber rein zentralen oder dezentralen Ansätzen, bindet aber andererseits relativ viel Personal.

In enger Abstimmung mit dem Prozesskonzept und der Definition der zukünftigen Organisation entsteht das Datenkonzept. Grundlage dafür sind die Anforderungen aus den Prozessen: Nur Daten, die in ihnen genutzt werden oder steuernden Einfluss auf sie haben, werden berücksichtigt. Das Datenkonzept soll die im Unternehmen verwendeten und für das Projekt relevanten Datenobjekte erheben und eingrenzen sowie die Datenstrukturen, integrativen Beziehungen, künftigen Datenstandards und -konventionen festlegen. Mit anderen Worten geht es um die Frage: Welche Datenfelder sollen in Zukunft mit welchen Inhalten gefüllt werden? Gerade in Mehrsystemlandschaften ist es notwendig, übergreifende Verteilszenarien über Systemgrenzen hinweg zu betrachten und die führenden Systeme und Datenflüsse eindeutig zu bestimmen. Das Datenkonzept bildet somit neben dem Prozesskonzept die Basis für eine erfolgreiche Konsolidierung und Harmonisierung von Stammdaten. Alle Informationen werden idealerweise nur einmal in den Systemen gehalten und für andere Nutzer bereitgestellt.

Manueller Aufwand bei der Datenbereinigung bleibt bestehen

Nachdem die künftigen Pflegeprozesse und das Datenkonzept eindeutig beschrieben sind, sollte der Anwender sich an die eigentliche Datenbereinigung machen. In den meisten Fällen ist die Datenanalyse zur Konsolidierung der Datensätze im Rahmen eines Stammdatenprojektes noch reine Handarbeit. Es gibt jedoch zahlreiche spezialisierte Tools für das Datenqualitäts-Management, mit denen sich die Datenanalyse unterstützen lässt. Speziell in der Dublettenanalyse, dass heißt dem Auffinden identischer Datensätze, bieten solche Werkzeuge mit ihren komplexen Suchalgorithmen eine gute Hilfe. So haben sie insbesondere beim Vergleich von Partnerstammdaten (Kunden und Lieferantenstämme) ihre Stärke und ermöglichen es, Daten auch im Vergleich mit externen Datenbeständen zu prüfen, zum Beispiel zur Validierung von Adressen oder Bankdaten.

Vor der Datenanalyse mit externen Tools sind zunächst die Felder zu definieren, die bei der Auswertung berücksichtigt werden sollen. Diese ausgewählten Felder lassen sich dann mit Normalisierungsregeln entsprechend überarbeiten. Dabei werden beispielsweise Klein- in Großbuchstaben umgewandelt, Umlaute ersetzt und Sonderzeichen erfasst. Um Partnerstammdaten zu prüfen, werden viele dieser Normalisierungsregeln schon standardmäßig in den Produkten ausgeliefert. Sie lassen sich aber auch um eigene Regeln erweitern. Geht es hingegen um Materialstammdaten, müssen die notwendigen Regeln meist kundenspezifisch überarbeitet und ergänzt werden. Nach der Überarbeitung mit Normierungsregeln werden die Felder dann im nächsten Schritt gemäß ihrer Bedeutung für die Auswertung gewichtet.

Die Datenanalyse-Tools ermitteln im Weiteren abhängig von diesen Gewichtungsfaktoren einen prozentualen Wert für die Gleichheit einzelner Datensätze. Der Anwender kann dabei die Ober- und Untergrenzen selber bestimmen, also ab welchem Schwellwert ein Datensatz als sichere Dublette gilt oder bis zu welchem Schwellwert ein Datensatz mit Sicherheit ein Unikat darstellt. Die Ergebnisse werden automatisch in verschiedenen Datentöpfen zusammengefasst, je nachdem, ob die definierten Schwellwerte über- oder unterschritten wurden. So gibt es eine Datei für die sicheren Dubletten, eine für die potenziellen Dubletten und einen Datensatz für die sicheren Unikate. Die einzelnen Ergebnisdateien können anschließend manuell nachbearbeitet werden, um die Ergebnisse des Analyse-Tools zu überprüfen.

Datenqualität muss ständig überwacht werden

Trotz der Hilfe durch spezialisierte Tools bleibt die Datenbereinigung ein überwiegend manueller Vorgang. Der damit verbundene Arbeitsaufwand ist nicht zu unterschätzen. Das gilt vor allem, wenn die Harmonisierung nicht Teil einer Systemneueinführung ist und bestehende Daten neu in definierte Strukturen zu überführen sind. Zudem muss die einmal erreichte konsistente Datenbasis erhalten bleiben. Neben regelmäßigen Überprüfungen der Datenqualität durch systemgestützte Auswertungen bedeutet dies, die neuen Prozesse der Stammdatenorganisation auch künftig konsequent anzuwenden. (as)