Im Risiko-Management haben IT-Systeme versagt

05.03.2009
Von 
Karin Quack arbeitet als freie Autorin und Editorial Consultant vor allem zu IT-strategischen und Innovations-Themen. Zuvor war sie viele Jahre lang in leitender redaktioneller Position bei der COMPUTERWOCHE tätig.
Die Krise ließ sich mit quantitativen Methoden nicht vorhersehen – geschweige denn verhindern.

Während der vergangenen zwei Jahrzehnte haben die Banken massiv investiert, um ihre Risiken bis auf die Stelle hinter dem Komma zu beziffern. Offenbar vergebens, denn die derzeitige Wirtschaftskrise ließ sich so nicht verhindern.

Krise? – Welche Krise?

"Die verheerende Erkenntnis lautet: Das quantitative Risiko-Management hat nichts genutzt", sagte Hans-Peter Burghof, Professor für Bankwirtschaft und Finanzdienstleistungen an der Universität Hohenheim, anlässlich einer CeBIT-Konferenz des IT-Dienstleisters GFT Technologies AG. Schlimmer noch: "Den Systemen zufolge hat die Krise überhaupt nicht stattgefunden." Derartig hohe Abweichungen von der Normalsituation seien dort gar nicht vorgesehen.

GFT-Vorstand Ulrich Dietz pflichtete dem Bankexperten bei: Die vorhandenen Risiko-Management-Systeme eigneten sich nicht, um Entwicklungen einzuschätzen, wie sie in den vergangenen Monaten eingetreten sind.

Die Finanzdienstleister hätten in der "Derivate-Hype-Phase" zwar riesige Projekte gestemmt, um die Ideen der Banker umzusetzen. Aber für eine adäquate Abschätzung der Risiken sei weder genug Zeit gewesen noch das notwendige Geld bereitgestellt worden. Oder wie Burghof es formulierte: "Die Marktdynamik ist einfach über die kaufmännische Vernunft hinweggefahren."

Selbstverständlich plädierten weder Burghof noch Dietz dafür, auf ein IT-gestütztes Risiko-Management zu verzichten. "Als Unternehmer hat man die Pflicht, so genau zu rechnen wie man kann", bestätigte der Professor, "aber man darf nicht blind an die Zahlen glauben." IT müsse als Unterstützung für das Management gesehen werden – nicht als Ersatz dafür.

Es gebe Risken, die sich quantitativ abbilden ließen, und solche, die auf diese Weise nicht darstellbar seien, beispielsweise juristische Risiken. Zudem sollte sich das Risiko-Management nicht darauf beschränken, die Vergangenheit zu analysieren, sondern als Frühwarnsystem fungieren, fuhr der Bankenexperte fort. Dazu müsse es allerdings Szenarioanalysen erlauben, also in der Lage sein, Interdependenzen darzustellen.

Instabile Datenbasis

Darüber hinaus müssen die Finanzinstitute, wie Dietz ergänzte, die Qualität ihres Datenmaterials verbessern: "Die Datenbasis ist die Grundlage für die Berechnung des Operational Value at Risk." 90 Prozent der Banken verfügten aber über keine zuverlässige Datenbasis – obwohl sie massenhaft Daten sammelten und speicherten. Denn selten bildeten diese Daten die Geschäftsprozesse dann auch komplett ab.

Zudem seien die Systeme vieler Banken nicht wirklich vernetzt, weiß der GFT-Chef: "Die Hypo Real Estate beispielsweise wäre gar nicht in der Lage gewesen, ihre weltweiten Risiken auf die Desktops ihrer Berater zu bringen."