Risikomanagement im Finanz-Sektor

IT als unterschätztes Risiko bei Banken

08.05.2015
Von 



Mathias Walter ist Head of Competence Center Financial Services bei der Trivadis GmbH und Experte für regulatorische Themen. Er betreut seit knapp 20 Jahren Finanzdienstleister aus unterschiedlichen Managementpositionen heraus und war vor seinem Wechsel zu Trivadis Mitglied der Geschäftsleitung einer IT-Tochter der SCHUFA. Seit 2011 leitet Matthias Walter das Competence Center Financial Services von Trivadis, welches eine Dolmetscherfunktion zwischen Fach- und IT-Bereich wahrnimmt und Finanzdienstleistern die Umsetzung von branchenspezifischer Regulatorien erleichtert.

Das Thema Risikomanagement ist spätestens seit der Finanzkrise in aller Munde. Die für Modelle, Kennzahlen und Prognosen nötige Infrastruktur findet dabei jedoch kaum Beachtung.

Speziell während der Finanzkrise hat sich gezeigt, dass die Risiko-Exposition eines Institutes kaum ad hoc zu ermitteln ist. Auch die Beantwortung von risikorelevanten Fragen abseits des vermeintlichen Mainstreams bereitet erhebliche Probleme. Kurz gesagt: Das tatsächliche Risiko war lange Zeit unklar. Doch wo liegen die Gründe?

Die Prozesse zum Umgang mit Daten müssen sich erheblich verbessern.
Die Prozesse zum Umgang mit Daten müssen sich erheblich verbessern.
Foto: guigaamartins_shutterstock.com

Veraltete IT-Infrastrukturen und schlechte Datenqualität

Im Grunde kommen hier mehrere Faktoren zusammen - einer dem bislang besonders wenig Beachtung zukommt ist die IT-Infrastruktur selbst. Einerseits werden viele unterschiedliche Systeme in Banken eingesetzt - die bis zu 30 Jahre alt und häufig redundant vorhanden sind. Weit schwerwiegender sind jedoch die negativen Effekte der so genannten "Schatten-IT". Damit sind jene Applikationen gemeint, die beim Fachbereichsleiter unter dem Schreibtisch laufen. Nicht selten finden sich hier kleinere Datenbanken, voluminöse Spreadsheets inklusive Logik oder auch Auszüge aus Stammdaten für eigene Zwecke. Ein derartiges Patchwork ist kaum zu überblicken. Es entstehen zunehmend Inkonsistenzen, in deren Folge die Datenqualität stark leidet.

Die Vollständigkeit und Korrektheit von Daten hat sich heute zum Kernproblem von Banken entwickelt. Die Datenkonsolidierung ist daher gegenwärtig die größte Herausforderung, die es zu lösen gilt. Da dies in besonderem Maße auch für Risikokennzahlen zutrifft, haben in der Zwischenzeit auch Regulatoren dieses Thema verstärkt in Visier genommen. Unter dem Titel BCBS 239 werden nun sehr konkret Forderungen hinsichtlich Datenqualität, IT-Architektur sowie Data-Governance-Aspekten formuliert. Zudem hat man zeitliche Vorgaben präzisiert, bis wann welche Informationen zu liefern sind und die Möglichkeit der ad-hoc-Abfrage beziehungsweise des ad-hoc-Reports wird nun ebenfalls verpflichtend.

Darum sind Investitionen in die IT dringend nötig

Als wäre dies nicht schon genug, wird die konzernweite, konsolidierte Datenaggregation gefordert. Auch die deutsche Steuerverwaltung denkt durchaus in die gleiche Richtung, die neuen "Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff" (GoBD) sind seit 01.01.2015 gültig. Dies erfordert eine grundlegende Flexibilisierung von Reporting-Infrastrukturen.

Die Notwendigkeit der Datenkonsolidierung zieht erhebliche Investitionen im IT-Bereich nach sich. Die dabei entstehenden Kosten sind immens und können durchaus im dreistelligen Millionenbereich pro Institut liegen. Es bleibt nur zu hoffen, dass bei aller Optimierung von Systemen der eigentliche Kern, also die Daten und deren Life Cycle, nicht vergessen wird. Der Grund: Daten "leben" im Durchschnitt etwa dreimal länger als Applikationen. Das bedeutet, dass Daten durchschnittlich auch dreimal auf andere Systeme umziehen.

Qualitätsaspekte spielen dabei eine entscheidende Rolle, denn die Praxis zeigt, dass 50 bis 70 Prozent aller IT-Projekte durch schlechte Daten ausgelöst werden. Die Prozesse, wie mit Daten umgegangen wird, müssen sich also erheblich verbessern - vom Anfang bis zum Ende ihres Lebenszyklus. Dass sich dies auch positiv auf die Betriebskosten auswirkt liegt auf der Hand, machen diese in der Regel etwa 70 Prozent des gesamten IT-Budgets aus.

So werden Banken fit für das Zeitalter der Digitalisierung

Von einer hohen Datenqualität profitieren letztlich alle Bereiche einer Bank. Es gibt jedoch noch einen weiteren Aspekt, der in diesem Zusammenhang eine Rolle spielt. Finanzhäuser, die Datenqualität, Stammdaten und Prozesse im Griff haben - und BCBS 239 bietet hierzu nun sogar einen verpflichtenden Anlass - können der Digitalisierung der Wirtschaft und der Konkurrenz von so genannten "FinTechs" weit gelassener entgegensehen. Insofern können Entscheider dem Regulator durchaus dankbar sein, denn er unterstützt indirekt deren Konkurrenzfähigkeit. (bw/fm)