BCBS 239 verlangt hohe Datenqualität

4 Punkte, die Banken jetzt beachten müssen

20.01.2016
Von 


Holger Stelz ist Director Marketing & Business Development bei Uniserv. Seit 2010 leitet der Experte für Datenmanagement die Weiterentwicklung des Geschäftsfeldes Kundendatenmanagement und verantwortet zudem seit 2011 das weltweite Marketing. Holger Stelz hat über 20 Jahre Erfahrung in der IT-Branche. Unter anderem war er 14 Jahre lang bei SAP tätig. Zuletzt verantwortete er als Sales Director SAP Business Intelligence, Master Data Management und Enterprise Portale drei Jahre lang das Geschäft in der Region Central EMEA.
Die Finanzkrise hat Defizite in der IT- und Datenarchitektur vieler Banken aufgedeckt. Daraus resultierten schwerwiegende Folgen für die Banken selbst und für die Stabilität des gesamten Finanzsystems. Der Basler Ausschuss für Bankenaufsicht veröffentlichte daraufhin regulatorische Anforderungen an die IT-Architektur und das Datenmanagement in Kreditinstituten. Ab Januar 2016 wird ihre Umsetzung zur Pflicht.

Die sogenannten "Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung" (BCBS239) veröffentlichte der Basler Ausschuss bereits im Januar 2013. Die Regeln umfassen konkrete regulatorische Anforderungen an die IT-Architektur und das Datenmanagement in Kreditinstituten, insbesondere bezüglich: IT-Organisation, Datenhaltung, Datenqualitätssicherung und Risiko-Reporting.

Ab Januar 2016 ist die Umsetzung von BCBS239 für Banken verpflichtend.
Ab Januar 2016 ist die Umsetzung von BCBS239 für Banken verpflichtend.
Foto: Vladru_shutterstock


Die Umsetzung der Regeln ist für global systemrelevante Banken ab Januar 2016 verpflichtend. Auch für national systemrelevante Banken ist eine Umsetzung ab Januar 2016 gefordert. Auf was Banken beim Aspekt der Datenqualitätssicherung jetzt achten müssen, habe ich nachstehend in 4 Punkten zusammengestellt.

1. Status Quo: Datenqualität prüfen

Laut BCBS 239 müssen Institute künftig in der Lage sein, über alle Bereiche ihres Unternehmens hinweg einheitliche Risikoberichte gewissermaßen auf Knopfdruck zu erstellen. Deshalb ist eine hohe Datenqualität zentraler Aspekt von BCBS 239. Unternehmensdaten, wie etwa Stammdaten von natürlichen Personen, juristischen Personen oder öffentlichen Haushalten, müssen daher hohe Ansprüchen an Beschaffenheit, Aktualität und Qualität erfüllen.

Um zu bewerten, wie es überhaupt um die eigene Datenqualität bestellt ist, kann eine Analysesoftware zum Einsatz kommen. Diese sucht automatisiert nach Lücken, Fehlern und Zusammenhängen innerhalb eines Datenbestands, trägt diese zusammen und liefert damit die Grundlage für das Analyseergebnis. Das mehrfache Auftauchen von etwa Kunden und Geschäftspartnern (Dubletten) in datenführenden Systemen liefert bereits einen ersten Anhaltspunkt. Durch eine Reihe verschiedener softwaregestützter Datenqualität-Tests, etwa Dublettenprüfung, postalische Validierung, Namensvalidierung und Syntaxprüfungen, können Banken einen sogenannten Datenqualitätsfaktor bestimmen, der dazu dient in Zukunft einen Vergleichswert für die Datenqualität zu haben.

2. Silos aufbrechen und Daten bereinigen

Herrscht nun Klarheit darüber, wie es um die Datenqualität bestellt ist, geht es an die eigentliche Bereinigung. Dies ist besonders wichtig, wenn viele verschiedene Datenquellen im gesamten Unternehmen analysiert werden oder eine komplexe Datenmigration und -integration durchgeführt werden soll.

Um im ersten Schritt gesäuberte Datenquellen für den Upload auf neue oder bestehende IT, etwa SAP-Systeme, vorzubereiten, müssen Fehler, Anomalien und Inkonsistenzen aufgespürt werden. Zu Beginn werden die Stammdaten bereits während ihrer Erfassung mittels Datenqualitätsservices geprüft. Fehlerhafte Daten, die nicht automatisch bereinigt werden können, werden in einer Zwischendatenbank gespeichert und ein Bericht oder Alert an die Eingabestelle geschickt, so dass diese eine Korrektur vornehmen kann. Mit diesem Kreislauf werden Stammdaten kontinuierlich während der Erfassung und Bearbeitung überprüft. Werden über diese Prozesse regelmäßig Berichte verfasst, kann die Leistung dieses geschlossenen Regelkreises für das Datenqualitätsmanagement gemessen und der Prozess kontinuierlich verbessert werden. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau.

3. Einzige wahre Datenquelle schaffen

Daten nur einmal zu bereinigen, um BSBC 239 zu erfüllen, wäre zu kurz gegriffen. Um fragmentierte Daten und Datensilos zu vermeiden, müssen sich Banken dem ganzheitlichen Datenmanagement annehmen. Dieses beginnt bei dem sogenannten "Golden Record". Er ist der einzig gültige, "allwissende" Datensatz, der alle relevanten Informationen zu den Stammdaten beinhaltet und zentriert abbildet - und auf den sich alle anderen operativen IT-Systeme beziehen.

Der Golden Record umfasst zuverlässige, korrekte, qualitätsgesicherte und verfügbare Stammdaten. Er ist quasi ein zentrales Register, in dem beispielsweise alle Kundenstammdaten über alle Kanäle, Organisationsbereiche und Applikationen hinweg gespeichert und kombiniert werden. Der Golden Record wird in einem zentralen Datenspeicher verwaltet. Der übergeordnete Datensatz enthält Links zu allen Stammdatensätzen aus verschiedenen Datenquellen, in denen Attribute aus dem Golden Record verwendet werden.

So kann sichergestellt werden, dass in einer beliebigen Datenquelle vorgenommene Änderungen von Attributen in allen anderen verbundenen Quellen ebenfalls berücksichtigt werden. Die Daten bleiben so konsistent und brauchen weder physikalisch bewegt noch redundant gespeichert werden. Das Ergebnis ist eine Synchronisierung der Datensilos im Unternehmen. Fragmentierte Daten gehören der Vergangenheit an.

4. Ganzheitliches Datenmanagement für Risikomanagementprozesse

Ist der Golden Record einmal angelegt, kann auf seiner Basis eine konzernweite ID für beispielsweise Geschäftspartner oder Kundendaten generiert werden. Diese Kunden-ID können Banken wiederum in ihren weiteren Risikomanagementprozessen zur Gesamtbewertung von Risiken nutzen. Damit stellt der Golden Record die einzig wahre und vor allem validierte Datenquelle dar, auf die sich Risikodaten beziehen.

Um Datensilos auch zukünftig zu vermeiden, müssen sich Unternehmen dem ganzheitlichen Stammdatenmanagement annehmen, etwa damit neue Daten immer korrekt eingegeben werden. Geeignete IT-Lösungen erlauben es zudem, Daten von Geschäftspartnern oder Kunden, die etwa neu in ein System eingegeben werden, auch direkt mit dem vorhandenen Adressdatenbestand abzugleichen. Dies vermeidet die doppelte Erfassung von Daten und schafft eine optimale Datenbasis.

Fazit

Auf den ersten Blick mag sich hinter BCBS 239 zwar ein erheblicher Aufwand verbergen, tatsächlich bietet die Richtlinie Banken große Chancen. Denn sie beabsichtigt, verbesserte Datenaggregation, Risikomanagement und Berichtswesen zu schaffen. Auf lange Sicht können Banken auf dieser Grundlage die finanziellen Folgen von Krisensituationen deutlich schneller und besser erfassen als bisher. (bw)