Bankenexperte erläutert

Warum die Risk-Management-Systeme versagt haben

05.03.2009
Von 
Karin Quack arbeitet als freie Autorin und Editorial Consultant vor allem zu IT-strategischen und Innovations-Themen. Zuvor war sie viele Jahre lang in leitender redaktioneller Position bei der COMPUTERWOCHE tätig.

Frühwarnsystem statt Vergangenheitsanalyse

Selbstversändlich plädierten weder Burghof noch Dietz dafür, auf ein IT-gestütztes Risiko-Management zu verzichten. "Als Unternehmer hat man die Pflicht, so genau zu rechnen wie man kann", bestätigte der Professor, "aber man darf nicht blind an die Zahlen glauben." Es gebe Risken, die sich quantitativ abbilden ließen, und solche, die auf diese Weise nicht darstellbar seien, beispielsweise juristische Risiken.

Zudem sollte sich das Risiko-Management nicht darauf beschränken, die Vergangenheit zu analysieren, sondern als Frühwarnsystem fungieren, fuhr der Bankenexperte fort. Dazu müsse es allerdings Szenarioanalysen erlauben, also in der Lage sein, Interdependenzen darzustellen.

Neun von zehn Banken ohne zuverlässige Datenbasis

Ulrich Dietz, Vorstandsvorsitzender der GFT
Ulrich Dietz, Vorstandsvorsitzender der GFT
Foto: GFT

Darüber hinaus müssen die Finanzinstitute, wie Dietz ergänzte, die Qualität ihres Datenmaterials verbessern: "Die Datenbasis ist die Grundlage für die Berechnung des Operational Value at Risk." Doch 90 Prozent der Banken verfügten nicht über eine zuverlässige Datenbasis - obschon sie massenhaft Daten sammelten und speicherten. Selten bildeten diese Daten aber die Geschäftsprozesse komplett ab.

Zudem seien die Systeme vieler Banken nicht wirklich vernetzt, weiß der GFT-Chef: "Die Hypo Real Estate beispielsweise wäre gar nicht in der Lage gewesen, ihre weltweiten Risiken auf die Desktops ihrer Berater zu bringen."