PortalDerWirtschaft.de



Suchmaschinenoptimierung mit PdW
mit Content-Marketing - Ihre News
English

Solvency II: Versicherungen vor neuen Anforderungen an die Datenqualität


Von Human Inference GmbH

Mit der Solvency-II-Richtlinie der Europäischen Union, die nun nach mehreren Verschiebungen voraussichtlich im Januar 2016 in Kraft tritt, steht Versicherungsunternehmen vor einer neuen Herausforderung in Sachen Datenqualitätsmanagement.

In einem Whitepaper stellt das niederländische Softwarehaus Human Inference deshalb einen Ansatz vor, wie mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Master Data Management (MDM) die neuen Compliance-Anforderungen erfüllt...
Thumb

Düsseldorf, 22.10.2013 - In einem Whitepaper stellt das niederländische Softwarehaus Human Inference deshalb einen Ansatz vor, wie mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Master Data Management (MDM) die neuen Compliance-Anforderungen erfüllt werden können. Darüber hinaus zeigt es, wie sich damit eine einheitliche Kundensicht erreichen lässt, die zur besseren Nutzung von Geschäftschancen führt und die Effizienz der Prozesse erhöht.

Solvency II ist als neues Aufsichtsmodell für die Versicherungsbranche das Gegenstück zu den Basel II-Regelungen im Bankgewerbe und legt die risikogerechte Ausgestaltung von Versicherungsprämien und Eigenkapitalquoten sowie die Harmonisierung der Aufsicht von Versicherungen innerhalb der EU fest. Wie schon bei den Richtlinien zu Basel II ist auch hier die Qualität der Daten entscheidend, auf Grund derer die Einschätzung der Versicherungskunden vorgenommen wird. Die Assekuranzen müssen künftig gegenüber dem Regulierer ausdrücklich belegen, dass ihre Datenbereitstellung den festgelegten Anforderungen genügt. Die Daten, auf deren Grundlage Versicherer kalkulieren und berichten, sollen dabei 'vollständig, richtig und angemessen' sein.

Laut einer Studie der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC haben in Deutschland aber erst einige wenige Versicherer die häufig langwierigen und aufwändigen Projekte zur Datenbereitstellung sowie zur Hebung und Sicherung der Datenqualität initiiert. Denn die heterogenen IT-Landschaften, die über viele Jahre gewachsen sind und in deren Rahmen an unterschiedlichsten Stellen individuelle Lösungen für Detailprobleme implementiert wurden, sorgen nun für Probleme. Vieles ist doppelt und dreifach vorhanden, eine zentrale Datenhaltung und ein unternehmensweites Datenmodell fehlen meist. Unschärfen in der Detaillierung und Konsistenz der Daten in fachlicher und technischer Sicht sowie fehlende historische Daten sind die Folge.

Kundendatenbanken von Assekuranzunternehmen enthalten häufig Dubletten oder sind unvollständig und inkonsistent. Dies ist nicht weiter verwunderlich, denn alleine in Deutschland gibt es im Jahr ca. 4 Millionen Umzüge und etwa 30.000 Änderungen bei Straßen, Postleitzahlen und Orten. Dazu kommen mehrfach angelegte Kundendatensätze, Falscherfassungen und typische Buchstabendreher bei der telefonischen Aufnahme der Adressen oder fehlerhaft ausgefüllte Online-Formulare. Häufig werden die Daten bei der Neuanlage von Adressen nicht sorgfältig genug erfasst oder es wird nicht überprüft, ob der Kunde schon vorhanden ist.

Schätzungen besagen, dass selbst eine gut gepflegte Kundendatenbank zwischen zwei und zehn Prozent Dubletten enthält. Bei einer schlecht gepflegten steigen die Zahlen sogar auf 20 und 30 Prozent. Solche Fehler verursachen hohe Kosten ? beispielsweise in Form von Streuverlusten, weil etwa ein potenzieller Kunde bei einem Mailing mehrere Zusendungen erhält, er aber allenfalls einmal einen Vertrag abschließt. Zwar ist es vergleichsweise einfach, die 'aus dem Fenster geworfenen' Portokosten für Brief-Rückläufer in einer Mailing-Aktion zu erfassen, die wegen fehlerhafter Adressdaten in der Kundendatenbank entstanden sind.

Was das Ganze so kompliziert macht: Häufig hat ein Kunde mehrere Versicherungen bei einer Gesellschaft abgeschlossen, die dort aber von unterschiedlichen Sachbearbeitern (im Zweifelsfall mit verschiedenen IT-Systemen und Kundendatenbanken) betreut werden. Eine einheitliche Sicht auf die Kunden herzustellen, die von allen Mitarbeitern genutzt werden kann, ist also kein leichtes Unterfangen. Das kostenlose Whitepaper 'Kennen Sie Ihre Kunden?' von Human Inference betrachtet die verschiedenen Bereiche, in denen die Kundendatenqualität eine Rolle spielt ? wie z.B. Marketing, Vertrieb, Controlling oder Geschäftsplanung. Aber auch Bereiche wir Kundenbeziehungsmanagement (CRM), Big-Data-Analysen oder Business Intelligence werden darin berücksichtigt.

Mehr zu diesem Thema finden Sie in unserem Whitepaper: "Kennen Sie Ihre Kunden?"



Kommentare

Bewerten Sie diesen Artikel
Noch nicht bewertet
Hinweis Für den Inhalt der Pressemitteilung ist der Einsteller, PresseBox.de, verantwortlich.

Pressemitteilungstext: 517 Wörter, 4407 Zeichen. Artikel reklamieren
Keywords
Diese Pressemitteilung wurde erstellt, um bei Google besser gefunden zu werden.

Tragen Sie jetzt Ihre kostenlose Pressemitteilung ein!