Data Governance

So geht Stammdaten-Management

28.01.2015 von Stefan Hinssen und Monika Pürsing
Unternehmerische Entscheidungen und Prozesse werden heute maßgeblich von Daten und Informationen bestimmt. Häufig übersehen wird, dass Daten einen Lebenszyklus haben und dieser geordnet, gestaltet und dokumentiert sein muss, damit sie ihren betrieblichen Nutzen erfüllen.

Daten benötigen also eine vorgelagerte Steuerung, eine "Governance". Data Governance handelt von der Konvergenz von Datenqualität, Datenmanagement, Datenrichtlinien, Geschäftsprozessmanagement und Risikomanagement rund um den Umgang mit Daten in einer Organisation.

"Data Governance legt einen Ordnungsrahmen mit Regeln für das strategische Informationsmanagement fest und stellt die Werkzeuge zur Überwachung und Steuerung der Vorschriften, internen Regeln sowie gesetzlicher Vorgaben und Compliance-Anforderungen bereit", heißt es im Beitrag "Sieben Regeln für bessere Datenqualität". Data Governance kann über den gesamten Daten-Lebenszyklus hinweg helfen, zum einen Risiken zu erkennen und zu vermeiden und zum anderen unternehmerische Potentiale zu nutzen und Kosten zu senken.

Zu den Kernargumenten für den Einsatz von Data Governance gehören Themen wie Data Quality, Data Privacy, Data Maintenance und Master Data Management.
Foto: zetVisions AG

Datenqualität - Grundlage der Verlässlichkeit

Um Datenqualität aufrechtzuerhalten und zu verbessern, müssen Kriterien wie etwa Richtigkeit, Vollständigkeit und Aktualität berücksichtigt werden; je nach Informationsbedarf kommen Aspekte der Weiterverarbeitung und des Zugangs hinzu. Der Grad der Datenqualität lässt sich überwiegend am "Point of Data Entry" bestimmen:

Um in solchen Fällen die Datenqualität zu verbessern, sind Standards und Richtlinien die Mittel der Wahl. Naturgemäß bringt ein Mitarbeiter nämlich nur die Datenqualität ein, die ihm zur Erreichung seiner Ziele zweckdienlich ist. Jeglicher Nutzen darüber hinaus muss plausibel gemacht werden. Welche Daten wann und wie zu erfassen oder nachträglich zu optimieren sind, lässt sich nur im Gesamtkontext erkennen. Die Darstellung der Abhängigkeiten und die anschließende Gestaltung der notwendigen Standards und Richtlinien übernimmt die Data Governance.

Um die Qualität der unternehmerischen Daten(ströme) zu gewährleisten, sollten Standards definiert werden.
Foto: W.Ihlenfeld_Fotolia

Data Privacy - ein Spannungsfeld

Unter Data Privacy versteht man den angemessenen Umgang mit persönlichen Daten, wo immer diese gesammelt und verarbeitet werden. Sofern gesetzlich vertretbar, soll jeder die Möglichkeit haben, Informationen über seine Person abrufen oder Veränderungen und Löschungen einfordern zu können. Die Privatsphäre muss zu jeder Zeit geschützt und dem Datenmissbrauch vorgebeugt werden. Je leichter eine einzelne Person identifizierbar ist, desto größer werden die Anforderungen an den Datenschutz - sowohl in Bezug auf die Speicherung als auch auf den Umgang mit den Daten.

Oftmals stehen unternehmerische Interessen dem Recht auf Privatsphäre entgegen, etwa wenn Daten zu Werbezwecken weiterverarbeitet oder gar veräußert werden. Es kann aber auch zu Konflikten innerhalb unternehmerischer Prozesse kommen - wenn beispielsweise im Rahmen einer Befragung zur Kundenzufriedenheit zwar persönliches Feedback der Kunden erwünscht ist, das aber von Seiten des Vertriebs dann nicht für Werbezwecke weiterverwendet werden darf.

EU-Datenschutzreform 2014/15: Die zehn wichtigsten Änderungen
Ein Gesetz für alle
EU-weit gelten die gleichen Datenschutzregeln. Das bedeutet auch eine gestiegene Verantwortung und Haftung für alle, die persönliche Daten verarbeiten.
"Recht auf Vergessen"
Wollen Nutzer ihre Daten nicht weiter verarbeitet sehen, werden diese gelöscht - vorausgesetzt, es spricht aus juristischer Sicht nichts dagegen.
"Opt-in" statt "Opt-out"
Sollen persönliche Daten verabeitet werden, müssen Nutzer aktiv zustimmen (und nicht aktiv widersprechen wie bisher).
Recht auf Transparenz
Nutzer haben ein Recht auf Transparenz - sie dürfen erfahren, welche Daten über sie gesammelt und wie diese verarbeitet werden.
Zugang und Portabilität
Der Zugang zu den bei Dritten über einen selbst gespeicherten Daten soll einfacher möglich sein. Zudem ist die Dartenportabilität zu gewährleisten - also sicherzustellen, dass persönliche Informationen leichter von einem Dienstanbieter zu einem anderen übertragen werden können.
Schnellere Meldung
Tritt ein Datenverlust auf, müssen Unternehmen und Organisationen im Regelfall binnen 24 Stunden, mindestens aber so schnell wie möglich ihrer behördlichen Meldepflicht nachkommen.
Weniger Behördenchaos
Unternehmen müssen sich nur noch mit einer einzigen Aufsichtsbehörde auseinandersetzen - und zwar dort, wo sie ihren Hauptsitz haben.
Grenzübergreifend
Privatanwender dürfen jeden Fall von Datenmissbrauch an ihre nationale Aufsichtsbehörde melden - selbst dann, wenn die betroffenen Daten im Ausland verarbeitet wurden.
Erweiterter Geltungsbereich
Die EU-Richtlinie gilt auch für Unternehmen, die keinen Sitz in der EU haben, sobald sie Waren oder Dienstleistungen in der EU anbieten oder auch nur Online-Marktforschung unter EU-Bürgern betreiben.
Höhere Bußgelder
Verstößt ein Unternehmen gegen die Datenschutzbestimmungen, droht ein Bußgeld in Höhe von bis zu vier Prozent des Jahresumsatzes.
Bürokratieabbau
Administrative Umstände wie Meldepflichten für Unternehmen, die persönliche Daten verarbeiten, entfallen.
Erst ab 16
Die rechtswirksame Anmeldung bei Internetnetservices wie Facebook oder Instagr.am soll Jugendlichen im Regelfall erst ab 16 Jahren möglich sein - weil sie erst ab diesem Lebensalter eine gültige Einwilligung in die Verarbeitung ihrer persönlichen Daten geben können. Nationale Gesetze sollen laut Datenschutzverordnung hier aber Ausnahmen möglich machen.
Stärkung der nationalen Aufsichtsbehörden
Nationale Datenschutzbehörden werden in ihren Kompetenzen gestärkt, so dass sie die neuen EU-Regeln besser umsetzen können. Unter anderem dürfen sie einzelnen Unternehmen verbieten, Daten zu verarbeiten. können bestimmte Datenflüsse stoppen und Bußgelder gegen Unternehmen verhängen, die bis zu zwei Prozent der jeweiligen weltweiten Jahreseinkünfte betragen. Darüber hinaus dürfen sie Gerichtsverfahren in Datenschutzfragen anstrengen. <br /><br />(Quelle: Forrester Research)

Werden betriebliche Prozesse im Umgang mit persönlichen Daten definiert, helfen Vorgaben aus der Data Governance gerade in den Bereichen der Sicherheit, der potenziellen Risiken und des ökonomischen Nutzens solcher Daten. Entsprechende Direktiven sind vor allem in der globalen Datennutzung wichtig, denn jede Kultur hat ihre Besonderheiten, jedes Land individuelle Regularien. Daher erfordern unternehmerische Privacy-Normen landesabhängige Herangehensweisen. Eine zentrale Governance-Steuerung kann helfen, das Vorgehen zu koordinieren.

Data Maintenance - eigene Aspekte abbilden

Data Maintenance beinhaltet die Anreicherung, Aktualisierung oder Korrektur von Daten über den gesamten Daten-Lebenszyklus hinweg. Hier werden unter anderem solche Kundeninformationen aktualisiert, die Einfluss auf die Sales- oder Marketing-Strategie haben können (zum Beispiel M&A, Beteiligungsstrukturen, Gesellschaftsformen, Anzahl Mitarbeiter, Umsatzgröße, Kontaktinformationen, Privacy). Es können aber auch Anpassungen zur Weiterverarbeitung erforderlich sein - beispielsweise die Synchronisation über mehrere Datenbanken hinweg. Mit einer professionellen Standardlösung für das Stammdaten-Management implementieren Unternehmen einen einheitlichen und kontrollierten Ablauf für die Pflege ihrer Stammdaten und können unternehmenseigene Data Governance-Aspekte abbilden.

Branchenunabhängig empfiehlt es sich, die Stammdatenpflege softwareseitig mithilfe so genannter Anfragen ("Requests") zu realisieren. Sie beinhalten Freigabeschritte, die zuvor auf Basis definierter Prozesse und Verantwortlichkeiten festgelegt wurden. Im Hintergrund findet eine Aufgabenzuordnung mit E-Mail-Benachrichtigung an die entsprechenden Benutzer statt, wie das folgende, real existierende Beispiel einer Firmierungsänderung zeigt:

  1. Der bestehende Kunde (Debitor) wird im Stammdaten-Management-System ausgewählt, geändert und gespeichert. Zuvor wählt beispielsweise eine definierte Finance-Rolle als Stichtag das Datum aus, ab dem die neue Firmierung gültig sein soll. Falls es für diese Änderungen ein Dokument gibt, wird es im System hochgeladen.

  2. Im Sinne des Vier-Augen-Prinzips validiert anschließend eine weitere Finance-Rolle, die per E-Mail informiert wird, die geänderten Stammdaten und gibt diese innerhalb des Freigabeprozesses frei.

  3. Danach werden die Daten an die Zielsysteme wie zum Beispiel das CRM-System oder das ERP verteilt. Ergebnis: Es liegt ein einheitlicher, aktueller Datenbestand vor.

Da durch den Einsatz einer solchen Lösung die Datenpflege nur einmalig anfällt, lassen sich zeitaufwendige und redundante Pflegeaktionen vermeiden.

Master Data Management

Wenngleich Stammdaten das Rückgrat eines Unternehmens bilden und daher in der notwendigen Güte verfügbar sein und gepflegt werden müssen, sieht die Realität in den Unternehmen häufig anders aus. Eine typische Situation bei Kunden der Fertigungsbranche ist beispielsweise, dass eine fehlerfreie Auswertung von Material- und Artikeldaten in einem Business Information Warehouse nicht möglich ist. Ziel der Implementierung einer Stammdatenlösung ist es daher, die vorhandenen Material- und Artikel- sowie Kunden- und Lieferantenstammdaten zu harmonisieren und zu konsolidieren, um eine einheitliche Datenbasis zu schaffen, die nicht zuletzt verlässliche Analysen und Reports ermöglicht. Master Data Management ist damit das Zusammenfügen aller im Unternehmen befindlichen Informationen/Daten zu einem schlüssigen Ganzen, dem "Golden Record Master" (oder auch "Single Point of Truth").

Big Data Glossar
Die Begriffe rund um Big Data
Big Data - was ist das eigentlich? Jeder spricht drüber, jeder versteht etwas anderes darunter. Klicken Sie sich durch unser Glossar mit den wichtigsten und meistgenutzten Begriffen (manche sagen auch "Buzzwords") und verstehen Sie, was damit genau gemeint ist. <br /><br /> <em>zusammengestellt von <a href="http://www.kommunikation-in-sendling.com/" target="_blank">Kriemhilde Klippstätter</a>, freie Autorin und Coach (SE) in München</em>
Ad Targeting
Der Versuch, die Aufmerksamkeit des potenziellen Kunden zu gewinnen, meist durch "passgenaue" Werbung.
Algorithmus
Eine in Software gegossene mathematische Formel mit der ein Datensatz analysiert wird.
Analytics
Mit Hilfe von Software-basierenden Algorithmen und statistischen Methoden werden Daten interpretiert. Dazu benötigt man eine analytische Plattform, die aus Software oder Software plus Hardware besteht und die die Werkzeuge und Rechenpower bereitstellt, um unterschiedliche analytische Abfragen durchführen zu können. Es gibt eine Reihe unterschiedlicher Formen und Einsatzzwecke, die in diesem Glossar näher beschrieben sind.
Automatic Identification and Capture (AIDC)
Jede Methode der automatischen Identifizierung und Datensammlung über eine Gegebenheit und die nachfolgende Speicherung in ein Computersystem. Etwa die Informationen aus einem RFID-Chip, die ein Scanner ausliest.
Behavioral Analytics
Behavioral Analytics nutzt Informationen über das menschliche Verhalten, um die Absichten zu verstehen und zukünftiges Verhalten vorhersehen zu können.
Business Intelligence (BI)
Der generelle Ausdruck für die Identifizierung, Herkunft und Analyse der Daten.
Call Detail Record (CDR) Analyse
Diese enthält Daten, die die Telekommunikationsunternehmen über die Nutzung von Mobilfunkgesprächen – etwa Zeitpunkt und Dauer der Gespräche – sammeln.
Cassandra
Ein verteiltes Datenbank-Verwaltungssystem für sehr große strukturierte Datenbanken („NoSQL“-Datenbanksystem) auf Open-Source-Basis (Apache).
Clickstream Analytics
Bezeichnet die Analyse der Web-Aktivitäten eines Benutzers per Auswertung seiner Klicks auf einer Website.
Competitive Monitoring
Tabellen, in denen die Aktivitäten der Konkurrenz im Web automatisch gespeichert werden.
Complex Event Processing (CEP)
Ein Prozess, bei dem alle Aktivitäten in den Systemen einer Organisation überwacht und analysiert werden. Bei Bedarf kann sofort in Echtzeit reagiert werden.
Data Aggregation
Das Sammeln von Daten aus unterschiedlichen Quellen für die Erstellung eines Berichts oder für eine Analyse.
Data Analytics
Ein Stück Software, mit dem Informationen aus einem Datensatz gezogen werden. Das Ergebnis kann ein Report, ein Status oder eine Aktion sein, die automatisch gestartet wird.
Data Architecture and Design
Legt dar, wie Unternehmensdaten strukturiert sind. Meist erfolgt das in drei Prozessschritten: Begriffliche Abbildung der Geschäftseinheiten, logische Abbildung der Beziehungen innerhalb der Geschäftseinheit sowie die physikalische Konstruktion eines Systems, das die Tätigkeiten unterstützt.
Data Exhaust
Die Daten, die eine Person bei ihrer Internet-Aktivität "nebenbei" erzeugt.
Data Virtualization
Der Prozess der Abstraktion verschiedener Datenquellen durch eine einzige Zugriffsschicht auf die Daten.
Distributed Object
Ein Stück Software, das es erlaubt, mit verteilten Objekten auf einem anderen Computer zusammenzuarbeiten.
De-Identification
Das Entfernen aller Daten, die eine Person mit einer bestimmten Information verbindet.
Distributed Processing
Die Ausführung eines Prozesses über verschiedene per Netzwerk verbundene Computer hinweg.
Drill
Apache Drill ist eine Open-Source-SQL-Suchmaschine für Hadoop- und NoSQL-Datenmanagement-Systeme.
Hadoop
Ein freies, in Java geschriebenes Framework der Apache Foundation für skalierbare, verteilt arbeitende Software in einem Cluster. Es basiert auf dem bekannten MapReduce-Algorithmus der Google Inc. sowie auf Vorschlägen des Google-Dateisystems.
HANA
SAPs Software-und Hardware-Plattform mit In-Memory-Computing für Echtzeitanalysen und große Transaktionsvolumen.
In-Database Analytics
In-Database Analytics bezeichnet die Integration der Analysemethoden in die Datenbank. Der Vorteil ist, dass die Daten für die Auswertung nicht bewegt werden müssen.
In-Memory Database
Jedes Datenbanksystem, das den Hauptspeicher für die Datenspeicherung benutzt.
In-Memory Data Grid (IMDG)
Die verteilte Datenspeicherung im Hauptspeicher vieler Server für schnellen Zugriff und bessere Skalierbarkeit.
Machine-generated Data
Alle Daten, die automatisch von einem Rechenprozess, einer Applikation oder einer nicht-menschlichen Quelle erzeugt werden.
Map/reduce
Ein Verfahren, bei dem ein großes Problem in kleinere aufgeteilt und an verschiedene Rechner im Netz oder Cluster oder an ein Grid aus unterschiedlichen Computern an verschiedenen Standorten ("map") zur Bearbeitung verteilt wird. Die Ergebnisse werden dann gesammelt und in einem (reduzierten) Report dargestellt. Google hat sein Verfahren unter der Marke "MapReduce" schützen lassen.
Mashup
Dabei werden unterschiedliche Datensätze innerhalb einer Applikation so kombiniert, dass das Ergebnis verbessert wird.
NoSQL
Datenbanken, die nicht relational aufgebaut sind und mit denen sich große Datenvolumina handhaben lassen. Sie benötigen keine festgelegten Tabellenschemata und skalieren horizontal. Beispielsweise ist Apache Cassandra eine NoSQL.
Operational Data Store (ODS)
Darin werden Daten aus unterschiedlichen Quellen gesammelt damit noch weitere Operationen ausgeführt werden können, bevor die Daten in ein Data Warehouse exportiert werden.
Pattern Recognition
Die Klassifizierung von automatisch erkannten Mustern.
Predictive Analytics
Diese Form der Analytics nutzt statistische Funktionen in einem oder mehreren Datensätzen, um Trends oder zukünftige Ereignisse vorherzusagen.
Recommendation Engine
Per Algorithmus werden die Kundenbestellungen einer Website analysiert und sofort passende Zusatzprodukte ausgesucht und angeboten.
Risk Analysis
Die Anwendung statistischer Methoden auf einen oder mehrere Datensätze, um das Risiko eines Projekts, einer Handlung oder Entscheidung abschätzen zu können.
Sentiment Analysis
Dabei werden Einträge von Leuten in sozialen Netzwerken über ein Produkt oder ein Unternehmen statisch ausgewertet.
Variable Pricing
Dabei folgt der Kaufpreis eines Produkts dem Angebot und der Nachfrage. Das erfordert die Echtzeit-Überwachung von Konsum und Lagerbestand.
Parallel Data Analysis
Ein analytisches Problem wird in Teilaufgaben aufgebrochen und die Algorithmen werden auf jede Problemkomponente zeitgleich und parallel angewendet.
Query Anal
In diesem Prozess wird eine Suchanfrage optimiert, um das bestmögliche Ergebnis zu erhalten.
Reference Data
Daten, die ein physikalisch oder virtuell vorhandenes Objekt und seine Eigenschaften beschreiben.

Data Governance schafft den erforderlichen Ordnungs- und Steuerungsrahmen als organisatorische Grundlage, um ein Stammdaten-Management im Unternehmen einführen zu können. Hierbei sind die relevanten Rollen, Verantwortlichkeiten und Prozesse zu definieren. Beispielsweise sollte in den entsprechenden Policies festgelegt werden,

Die IT-Kosten lassen sich unter anderem durch den Wegfall regelmäßig notwendiger Harmonisierungsprojekte deutlich senken. Im Außenverhältnis kann etwa der Einkauf die konsolidierten Lieferantenstammdaten für Preisverhandlungen nutzen, da es künftig möglich ist, das Gesamteinkaufsvolumen bei einem Lieferanten und dessen Töchtern zu ermitteln und so Rabatte zu erzielen.

Die vier Säulen der Data Governance.
Foto: zetVisions AG

Data Governance Offices

Um Data Governance wirkungsvoll in die Tat umzusetzen, können Unternehmen über ein eigenes Data Governance Office als institutionalisierte Daten-Autorität nachdenken, die die Nutzung von Daten innerhalb der Organisation festlegt. Das Office besteht aus Vertretern der relevanten Geschäftsbereiche; dabei lässt sich nach fachlichem Fokus (zentrale/dezentrale Vertriebsfunktionen, Finance, HR, IT) oder geographischem Fokus (alle Funktionen einer Landesvertretung) unterscheiden.

Die Tätigkeit des Data Governance Office beschränkt sich vorrangig auf Felder, die das Unternehmen bei der Erreichung von Geschäftszielen unterstützen:

Fazit

Data Governance ist kein Projekt, keine Einzelmaßnahme - und kein reines IT-Thema. Die funktionsübergreifende Zusammenarbeit ist erfolgskritisch, um Silos aufzubrechen und Gemeinsamkeiten oder gar Konflikte im Gebrauch mit Daten aufzuzeigen.

Messbare Kriterien für "Erfolg" sind in erster Linie die erhöhte Qualität der Dateninhalte und Datenformate sowie eine verbesserte Transparenz durch optimierte Prozesse - beispielsweise in der Synchronisation von Daten oder der Aggregation von Informationen. Im Idealfall schafft die Kombination der beiden Punkte unternehmerische Potenziale, erleichtert die Entscheidungsfindung, verbessert Kundenzufriedenheit sowie operative Effizienz und reduziert Kosten und Risiken. (sh)