Solvency II-Richtlinie

Datenqualität der Versicherungen lässt noch zu wünschen übrig

02.06.2015
Von 
800x600

Holger Wandt ist seit 1991 für Human Inference tätig. Als Sprachwissenschaftler hat er viele Jahre an der Erfassung, Pflege und Qualität des Wissens, das die Produkte von Human Inference auszeichnet, gearbeitet. In seiner heutigen Position als Principal Advisor ist er verantwortlich für alle wissensbezogenen Fragen zur Datenqualität. Er ist der  Experte auf dem Gebiet der Interpretation von Kundendaten durch natural language processing, wobei wissensbasierte Verfahren  zum Einsatz kommen, die Einsichten der Computerlinguistik zur Spracherkennung und -synthese anwenden.  Diese Verfahren sind  die Grundlage des Erfolgs der Produktsuite von Human Inference. Daneben ist Dr. Wandt ein vielgefragter Referent auf (inter)nationalen Kongressen, Studienleiter der Masterclass Data Quality Management an der Nyenrode Buisnessuniversität und Dozent der linguistischen Fakultät an der Universität Utrecht Normal 0 21 false false false DE X-NONE X-NONE MicrosoftInternetExplorer4

Die deutschen Versicherungen haben bei der Umsetzung von Solvency II noch einiges zu tun: Besonders bei der Verfügbarkeit und Qualität der erforderlichen Daten gibt es Mängel. Das ist ein zentrales Ergebnis der ersten deutschen Benchmark-Studie zu Solvency II, die jetzt vorgestellt wurde.

Die Untersuchung "Solvency II - Status Quo und Erwartungen" wurde vom Risikomanagement-Wissenspool RiskNET in Zusammenarbeit mit Prof. Dr. Matthias Müller-Reichart, Lehrstuhlinhaber für Risikomanagement des Studiengangs Versicherungsmanagement / Financial Services an der Fachhochschule Wiesbaden erstellt. Grundlage der Analyse sind 120 detaillierte Online-Fragebögen, die von Vorständen und Risikomanagern der Assekuranz in Deutschland, der Schweiz und in Österreich ausgefüllt wurden, sowie 17 vertiefende Interviews mit Vorständen und Risikoverantwortlichen aus der Branche.

Ähnlich wie die Basel-II-Vorgaben in der Bankenbranche sollen die Solvency-II-Regularien dafür sorgen, dass Versicherungen ihr Risikomanagement verbessern. Versicherer müssen ihre Risikostruktur und Solvabilität transparenter gestalten, damit Versicherte besser vor Kapitalverlust geschützt werden. Eine zentrale Aufgabe bei der Umsetzung von Solvency II ist das Datenmanagement: So halten 86 Prozent der Befragten ein möglichst effizientes und zeitnahes internes Reporting für "sehr wichtig" oder "wichtig", 84 Prozent heben hervor, dass eine ausreichende Menge an Daten für die statistische Risikomodellierung eine entscheidende Bedeutung hat.

Basieren Geschäftsabläufe auf unkorrekten oder unvollständigen Stammdaten, kann das zu erheblichen Fehlern führen.
Basieren Geschäftsabläufe auf unkorrekten oder unvollständigen Stammdaten, kann das zu erheblichen Fehlern führen.
Foto: Olivier Le Moal/Shutterstock.com

Defizite im Datenmanagement

Zugleich gestehen viele Versicherungen ein, dass sie beim Datenmanagement noch Defizite haben. So geben 29 Prozent der Befragten an, dass sie die mangelnde Verfügbarkeit und Qualität der Daten als "äußerst relevantes" Problem ansehen. Weitere 27 beziehungsweise 23 Prozent betrachten diesen Bereich noch als "relevanten" oder "eher relevanten" Stolperstein auf ihrem Weg zur Solvency-II-Implementierung. Somit ist das Datenproblem die höchste Hürde bei der Umsetzung von Solvency II.

Was also tun? Die professionelle und flexible Anwendung von Risikomanagement, Governance und Compliance-Vorschriften ist nicht nur eine lästige Pflicht. Sondern dadurch können die Assekuranzunternehmen einen wesentlich höheren Mehrwert für sich schaffen, als wenn sie einfach nur die gesetzlichen Vorschriften befolgen. Denn der Schaden durch mangelnde Datenqualität ist in diesem Bereich besonders hoch. Neben direkten Kosten durch Datenverluste und Strafzahlungen entstehen für die Unternehmen auch große Imageschäden, denn die negative Berichterstattung führt nicht selten zum Vertrauensverlust bei den Kunden.

Beeinträchtigung des laufenden Betriebs

Die in der Vergangenheit bekannt gewordenen spektakulären Fälle stellen allerdings nur die Spitze des Eisbergs dar. Unscheinbarer - aber durchaus nicht weniger kostspielig - sind Ineffizienzen im täglichen Betrieb, die durch mangelnde Qualität von Stammdaten verursacht werden. Eine fehlende zentrale Identitäts- und Berechtigungsverwaltung tut das Übrige. Solvency II wird nach dem Beschluss des Bundesrates zur nationalen Umsetzung der europäischen Vorgaben aller Vorrausicht nach fristgerecht zum 1. Januar 2016 in Kraft treten. Diese regulatorischen Bestimmungen erhöhen die Anforderungen an die Versicherungen zur Optimierung ihres Datenmanagements massiv.

Auch wenn sie nur ein Teilaspekt der gesamten Problematik sind, gelten die neuen Vorschriften auch für die Kundenadressdaten. Nachvollziehbare Datenladeprozesse, einen hohen Datenqualitätsstandard sowie weitreichende Datenhistorisierungen gilt es deshalb auch hier zu etablieren. Auf Grund der meist in den Firmen existierenden IT-Insellösungen ist die hinreichende Konsolidierung der Daten jedoch oft schwierig und aufwändig. Doch selbst relativ geringe Fehler in den Ausgangsdaten wirken sich sehr deutlich auf die Risikobewertungen aus. Da schon Abweichungen um einen halben Prozentpunkt in der Risikobewertung drastische Auswirkungen haben, gilt es Datenfehler möglichst auszuschließen und die Datenprozesse transparent zu gestalten.

Ein vorausschauender und flexibler Einsatz von Datenqualitätslösungen und ein zentrales Master Data Management (MDM) bieten vor diesem Hintergrund folgende Vorteile:

• Risikominimierung und niedrigere erforderliche Kapitalreserven

• Mehr Transparenz und bessere Einsicht

• Dauerhaft zuverlässige Daten

• Schutz sensibler Informationen vor Unberechtigten

• Erhöhte Flexibilität und schnellere Reaktionsfähigkeit des Unternehmens

• Verbesserte operative Effizienz

Auswirkungen auf die Geschäftsprozesse

Bei vielen Geschäftsprozessen von Versicherungen kommt es auf genaue und belastbare Daten an - beispielsweise über Kunden und die mit ihnen abgeschlossenen Verträge. Basieren die Geschäftsabläufe auf unkorrekten oder unvollständigen Stammdaten, kann das zu erheblichen Fehlern führen - etwa bei der Abrechnung oder der Planung. Das beeinträchtigt nicht nur die Kundenzufriedenheit und stört die Prozesse, sondern es erhöht auch den Aufwand für die Pflege. Denn der Datenabgleich verursacht Kosten und braucht Zeit. Vielen Entscheidern ist gar nicht bewusst, dass zersplitterte und dezentral organisierte Stammdatenprozesse einen negativen Einfluss auf das Geschäft haben. Denn sie greifen nicht reibungslos ineinander.

Werden die gleichen Stammdaten in verschiedenen Unternehmensbereichen, auf unterschiedlichen Hierarchie-Ebenen oder in mehreren Geschäftsprozessen genutzt, ist die Einführung einheitlicher Standards, Regeln und Abläufe unumgänglich. Dafür hat sich der Begriff "Data Governance" eingebürgert. Die Entwicklung einer einheitlichen Strategie und gemeinsamer Prinzipien ist Chefsache. Sie wird ergänzt durch die Definition von verbindlichen Datenpflegeprozessen und die Festlegung von Kennzahlen.

Die Anwendung von solchen Key-Performance-Indikatoren, wie beispielsweise Datenqualitätskennzahlen, schafft die Grundlage für die nachfolgenden Prozesse. Dabei werden die vorhandenen Daten nach verschiedenen Qualitätsgesichtspunkten untersucht. Diese umfassen Dimensionen wie beispielsweise Vollständigkeit und Korrektheit und stellen den Wert der einzelnen Informationen dar. Weiterhin wird der Zusammenhang zwischen vorhandenen Daten analysiert, insbesondere deren Aktualität und Redundanzfreiheit.

Data Stewards als Katalysatoren

Die Einbeziehung der Mitarbeiter in den Fachabteilungen ist dabei eine wesentliche Voraussetzung für den Erfolg. Die Benennung von "Data Stewards" als Katalysatoren im Unternehmen hat sich ebenfalls bewährt. Als Verantwortlicher für die Verbesserung der Datenqualität sollen sie die in der Data Governance festgelegten Prinzipien im gesamten Unternehmen durchsetzen, Metriken entwickeln, die Interessen der einzelnen Fachabteilungen miteinander in Einklang bringen und für die nachhaltige Konsistenz und Genauigkeit der Daten sorgen.

Wie wichtig die Stammdaten für effiziente Prozesse im Unternehmen sind, zeigt sich ständig in der Praxis - etwa wenn man einen Geschäftsablauf von der ersten Kundenansprache bis zum Geldeingang betrachtet. Die Qualität der Prozesse lässt sich mit einer Reihe von Kennzahlen messen, zum Beispiel anhand der Durchlaufzeiten, der Anzahl von Vertragsstornierungen oder der Kundenzufriedenheit. Mit Hilfe dieser Kennzahlen kann eine Aussage über die Qualität des Prozesses getroffen werden.

Im zweiten Schritt lassen sich Rückschlüsse ziehen, welche Stammdaten Relevanz für die Qualität des Gesamtprozesses haben. Solche Stammdatenprozesse, die direkten Einfluss auf die Prozesskennzahlen haben, können gezielt verbessert werden. Zum Beispiel die Anzahl der Versandrückläufer: Sie lässt sich mit korrekten Daten zur Kundenanschrift deutlich verringern. Insgesamt führt eine höhere Datenqualität im Finanz- und Controllingbereich zu besseren und effizienteren Abläufen. Zudem lassen sich damit viele Risiken in den Geschäftsprozessen verringern. Und damit wird ein wesentliches Ziel von Solvency II erreicht. (bw)