Solvency II-Richtlinie

Datenqualität der Versicherungen lässt noch zu wünschen übrig

02.06.2015 von Holger Wandt
Die deutschen Versicherungen haben bei der Umsetzung von Solvency II noch einiges zu tun: Besonders bei der Verfügbarkeit und Qualität der erforderlichen Daten gibt es Mängel. Das ist ein zentrales Ergebnis der ersten deutschen Benchmark-Studie zu Solvency II, die jetzt vorgestellt wurde.

Die Untersuchung "Solvency II - Status Quo und Erwartungen" wurde vom Risikomanagement-Wissenspool RiskNET in Zusammenarbeit mit Prof. Dr. Matthias Müller-Reichart, Lehrstuhlinhaber für Risikomanagement des Studiengangs Versicherungsmanagement / Financial Services an der Fachhochschule Wiesbaden erstellt. Grundlage der Analyse sind 120 detaillierte Online-Fragebögen, die von Vorständen und Risikomanagern der Assekuranz in Deutschland, der Schweiz und in Österreich ausgefüllt wurden, sowie 17 vertiefende Interviews mit Vorständen und Risikoverantwortlichen aus der Branche.

Ähnlich wie die Basel-II-Vorgaben in der Bankenbranche sollen die Solvency-II-Regularien dafür sorgen, dass Versicherungen ihr Risikomanagement verbessern. Versicherer müssen ihre Risikostruktur und Solvabilität transparenter gestalten, damit Versicherte besser vor Kapitalverlust geschützt werden. Eine zentrale Aufgabe bei der Umsetzung von Solvency II ist das Datenmanagement: So halten 86 Prozent der Befragten ein möglichst effizientes und zeitnahes internes Reporting für "sehr wichtig" oder "wichtig", 84 Prozent heben hervor, dass eine ausreichende Menge an Daten für die statistische Risikomodellierung eine entscheidende Bedeutung hat.

Basieren Geschäftsabläufe auf unkorrekten oder unvollständigen Stammdaten, kann das zu erheblichen Fehlern führen.
Foto: Olivier Le Moal/Shutterstock.com

Defizite im Datenmanagement

Zugleich gestehen viele Versicherungen ein, dass sie beim Datenmanagement noch Defizite haben. So geben 29 Prozent der Befragten an, dass sie die mangelnde Verfügbarkeit und Qualität der Daten als "äußerst relevantes" Problem ansehen. Weitere 27 beziehungsweise 23 Prozent betrachten diesen Bereich noch als "relevanten" oder "eher relevanten" Stolperstein auf ihrem Weg zur Solvency-II-Implementierung. Somit ist das Datenproblem die höchste Hürde bei der Umsetzung von Solvency II.

Was also tun? Die professionelle und flexible Anwendung von Risikomanagement, Governance und Compliance-Vorschriften ist nicht nur eine lästige Pflicht. Sondern dadurch können die Assekuranzunternehmen einen wesentlich höheren Mehrwert für sich schaffen, als wenn sie einfach nur die gesetzlichen Vorschriften befolgen. Denn der Schaden durch mangelnde Datenqualität ist in diesem Bereich besonders hoch. Neben direkten Kosten durch Datenverluste und Strafzahlungen entstehen für die Unternehmen auch große Imageschäden, denn die negative Berichterstattung führt nicht selten zum Vertrauensverlust bei den Kunden.

Beeinträchtigung des laufenden Betriebs

Die in der Vergangenheit bekannt gewordenen spektakulären Fälle stellen allerdings nur die Spitze des Eisbergs dar. Unscheinbarer - aber durchaus nicht weniger kostspielig - sind Ineffizienzen im täglichen Betrieb, die durch mangelnde Qualität von Stammdaten verursacht werden. Eine fehlende zentrale Identitäts- und Berechtigungsverwaltung tut das Übrige. Solvency II wird nach dem Beschluss des Bundesrates zur nationalen Umsetzung der europäischen Vorgaben aller Vorrausicht nach fristgerecht zum 1. Januar 2016 in Kraft treten. Diese regulatorischen Bestimmungen erhöhen die Anforderungen an die Versicherungen zur Optimierung ihres Datenmanagements massiv.

8 Tools für die Datenvisualisierung
Piktochart
Vorlagen helfen beim Gestalten von topmodernen Infografiken. Die Pro-Sektion hält Vorlagen für typische Geschäftsthemen bereit.
Simpel, aber effektiv
Der Editor von Piktochart funktioniert wie ein stark abgespecktes Grafikprogramm. Mit simplen Werkzeugen können die Vorlagen editiert und angepasst werden.
Google Charts
Google Charts bietet eine Galerie mit allen erdenklichen verschiedenen Diagramm-Typen.
Eher etwas für Entwickler
Das Tool ist extrem flexibel, aber eindeutig ein Fall für Entwickler.
iCharts
Die nüchterne Oberfläche von iCharts ist im Windows-Stil gestaltet.
Datenfutter
Die Stärke von iCharts ist nicht gerade die Oberfläche oder Optik der damit generierten Diagramme, dafür gelingt es leicht, den Dienst mit Daten zu füttern.
Easel.ly
In den Tausenden Vorlagen bei Easel.ly findet sich fast für jeden Zweck ein schon vorgestaltetes Diagramm.
Oberfläche
Mit der komfortablen Oberfläche gelingen in kurzer Zeit top gestaltete Infografiken und Charts.
Galerie
Die Galerie von Easel.ly bietet über eine Million öffentliche Infografiken. Jede davon kann in den Editor Modus geladen werden.
Infogr.am
Die Oberfläche von Infogr.am ist sofort verinnerlicht und extrem übersichtlich.
Große Auswahl
Bei den Charttypen lässt Infogr.am keine Wünsche offen.
Datenupload
Infogram kann mit hochgeladenen Daten gefüttert werden und erzeugt daraus schicke, editierbare Charts.
ChartsBin
ChartsBin wandelt eingegebene Datensätze ins gewünschte Kartenformat um.
Teilen und kommentieren
Die fertigen Karten können leicht geteilt und kommentiert werden.
Venngage
Venngage beherrscht alle gängigen Diagramm-Typen. Bei ausgefallenen wird jedoch das Premium-Upgrade Pflicht.
Rechteverwaltung
Das Veröffentlichen (wahlweise public oder private) der Grafiken oder Teilen auf sozialen Netzen klappt mit einem Klick aus dem Editor heraus.

Auch wenn sie nur ein Teilaspekt der gesamten Problematik sind, gelten die neuen Vorschriften auch für die Kundenadressdaten. Nachvollziehbare Datenladeprozesse, einen hohen Datenqualitätsstandard sowie weitreichende Datenhistorisierungen gilt es deshalb auch hier zu etablieren. Auf Grund der meist in den Firmen existierenden IT-Insellösungen ist die hinreichende Konsolidierung der Daten jedoch oft schwierig und aufwändig. Doch selbst relativ geringe Fehler in den Ausgangsdaten wirken sich sehr deutlich auf die Risikobewertungen aus. Da schon Abweichungen um einen halben Prozentpunkt in der Risikobewertung drastische Auswirkungen haben, gilt es Datenfehler möglichst auszuschließen und die Datenprozesse transparent zu gestalten.

Ein vorausschauender und flexibler Einsatz von Datenqualitätslösungen und ein zentrales Master Data Management (MDM) bieten vor diesem Hintergrund folgende Vorteile:

• Risikominimierung und niedrigere erforderliche Kapitalreserven

• Mehr Transparenz und bessere Einsicht

• Dauerhaft zuverlässige Daten

• Schutz sensibler Informationen vor Unberechtigten

• Erhöhte Flexibilität und schnellere Reaktionsfähigkeit des Unternehmens

• Verbesserte operative Effizienz

Auswirkungen auf die Geschäftsprozesse

Bei vielen Geschäftsprozessen von Versicherungen kommt es auf genaue und belastbare Daten an - beispielsweise über Kunden und die mit ihnen abgeschlossenen Verträge. Basieren die Geschäftsabläufe auf unkorrekten oder unvollständigen Stammdaten, kann das zu erheblichen Fehlern führen - etwa bei der Abrechnung oder der Planung. Das beeinträchtigt nicht nur die Kundenzufriedenheit und stört die Prozesse, sondern es erhöht auch den Aufwand für die Pflege. Denn der Datenabgleich verursacht Kosten und braucht Zeit. Vielen Entscheidern ist gar nicht bewusst, dass zersplitterte und dezentral organisierte Stammdatenprozesse einen negativen Einfluss auf das Geschäft haben. Denn sie greifen nicht reibungslos ineinander.

Werden die gleichen Stammdaten in verschiedenen Unternehmensbereichen, auf unterschiedlichen Hierarchie-Ebenen oder in mehreren Geschäftsprozessen genutzt, ist die Einführung einheitlicher Standards, Regeln und Abläufe unumgänglich. Dafür hat sich der Begriff "Data Governance" eingebürgert. Die Entwicklung einer einheitlichen Strategie und gemeinsamer Prinzipien ist Chefsache. Sie wird ergänzt durch die Definition von verbindlichen Datenpflegeprozessen und die Festlegung von Kennzahlen.

Die Anwendung von solchen Key-Performance-Indikatoren, wie beispielsweise Datenqualitätskennzahlen, schafft die Grundlage für die nachfolgenden Prozesse. Dabei werden die vorhandenen Daten nach verschiedenen Qualitätsgesichtspunkten untersucht. Diese umfassen Dimensionen wie beispielsweise Vollständigkeit und Korrektheit und stellen den Wert der einzelnen Informationen dar. Weiterhin wird der Zusammenhang zwischen vorhandenen Daten analysiert, insbesondere deren Aktualität und Redundanzfreiheit.

Datenschutz: So setzen Sie die die geltenden Richtlinien um
Gesetze verstehen
Die Auswirkungen der aktuellen und künftigen Gesetzeslage auf die Firma verstehen. Dies beinhaltet die Frage nach notwendigen Änderungen und deren Auswirkungen auf das IT-Budget. Zum Beispiel nutzen viele Unternehmen immer noch reale Daten ihrer Kunden und Nutzer für Entwicklungs- und Testzwecke. Mit der neuen Gesetzgebung sollten sie diese anonymisieren oder zumindest maskieren.
Analysieren
Analysieren, wo persönliche und sensible Daten aufbewahrt werden. Wer nutzt wie welche Daten und wo liegen die größten Gefahren einer Datenschutzverletzung? Die entsprechende Analyse der Bearbeitungsprozesse persönlicher und sensibler Daten und wie diese mit anderen Daten interagieren nimmt oft deutlich mehr Zeit in Anspruch als geplant.
Anonymisieren
Daten desensibilisieren, ohne sie unbrauchbar zu machen. Anonymisierte Daten lassen sich häufig relativ problemfrei in bestehende Workflows und Prozesse integrieren. Alternativ sind neue oder veränderte Arbeitsprozesse zu entwickeln, um die Gesetze einzuhalten. Die daraus resultierenden Kenntnisse fließen wiederum in Anforderungskataloge an Drittanbieter-Lösungen ein.
Datenschutzprozesse entwickeln
Datenschutzprozesse unter Verwendung der geeigneten Werkzeuge entwickeln. Zur Umsetzung der Datensicherheits-Strategie gibt es verschiedene Lösungen. Diese kann aus einem neuen Satz an Geschäftsprozessen bestehen, aus einer Revision der Datenzugriffsbestimmungen, einer (Test-)Datenmanagement-Technologie oder aus einer beliebigen Kombination davon.
Lösungen liefern
Die Lösung in das bestehende IT-Umfeld ausliefern. Vor der Einführung der entwickelten Prozesse sollten die Abläufe so weit wie möglich automatisiert und die manuellen Eingriffe reduziert sein. Teams, die diese Prozesse im Alltag betreuen, sind in die entsprechenden Regularien und Prozesse einzuweisen sowie in der Handhabung der verwendeten Werkzeuge zu trainieren.

Data Stewards als Katalysatoren

Die Einbeziehung der Mitarbeiter in den Fachabteilungen ist dabei eine wesentliche Voraussetzung für den Erfolg. Die Benennung von "Data Stewards" als Katalysatoren im Unternehmen hat sich ebenfalls bewährt. Als Verantwortlicher für die Verbesserung der Datenqualität sollen sie die in der Data Governance festgelegten Prinzipien im gesamten Unternehmen durchsetzen, Metriken entwickeln, die Interessen der einzelnen Fachabteilungen miteinander in Einklang bringen und für die nachhaltige Konsistenz und Genauigkeit der Daten sorgen.

Wie wichtig die Stammdaten für effiziente Prozesse im Unternehmen sind, zeigt sich ständig in der Praxis - etwa wenn man einen Geschäftsablauf von der ersten Kundenansprache bis zum Geldeingang betrachtet. Die Qualität der Prozesse lässt sich mit einer Reihe von Kennzahlen messen, zum Beispiel anhand der Durchlaufzeiten, der Anzahl von Vertragsstornierungen oder der Kundenzufriedenheit. Mit Hilfe dieser Kennzahlen kann eine Aussage über die Qualität des Prozesses getroffen werden.

Im zweiten Schritt lassen sich Rückschlüsse ziehen, welche Stammdaten Relevanz für die Qualität des Gesamtprozesses haben. Solche Stammdatenprozesse, die direkten Einfluss auf die Prozesskennzahlen haben, können gezielt verbessert werden. Zum Beispiel die Anzahl der Versandrückläufer: Sie lässt sich mit korrekten Daten zur Kundenanschrift deutlich verringern. Insgesamt führt eine höhere Datenqualität im Finanz- und Controllingbereich zu besseren und effizienteren Abläufen. Zudem lassen sich damit viele Risiken in den Geschäftsprozessen verringern. Und damit wird ein wesentliches Ziel von Solvency II erreicht. (bw)