Wir nutzen Cookies, um Ihren Besuch auf unserer Website und unseren Service zu optimieren.
Wir betrachten die weitere Nutzung unserer Website als Zustimmung zu der Verwendung von Cookies.
PortalDerWirtschaft.de



Suchmaschinenoptimierung mit PdW
mit Content-Marketing - Ihre News
English

Solvency II: Versicherungen vor neuen Anforderungen an die Datenqualität

Von Human Inference GmbH

Mit der Solvency-II-Richtlinie der Europäischen Union, die nun nach mehreren Verschiebungen voraussichtlich im Januar 2016 in Kraft tritt, steht Versicherungsunternehmen vor einer neuen Herausforderung in Sachen Datenqualitätsmanagement.

In einem Whitepaper stellt das niederländische Softwarehaus Human Inference deshalb einen Ansatz vor, wie mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Master Data Management (MDM) die neuen Compliance-Anforderungen erfüllt...

Düsseldorf, 22.10.2013 - In einem Whitepaper stellt das niederländische Softwarehaus Human Inference deshalb einen Ansatz vor, wie mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Master Data Management (MDM) die neuen Compliance-Anforderungen erfüllt werden können. Darüber hinaus zeigt es, wie sich damit eine einheitliche Kundensicht erreichen lässt, die zur besseren Nutzung von Geschäftschancen führt und die Effizienz der Prozesse erhöht.

Solvency II ist als neues Aufsichtsmodell für die Versicherungsbranche das Gegenstück zu den Basel II-Regelungen im Bankgewerbe und legt die risikogerechte Ausgestaltung von Versicherungsprämien und Eigenkapitalquoten sowie die Harmonisierung der Aufsicht von Versicherungen innerhalb der EU fest. Wie schon bei den Richtlinien zu Basel II ist auch hier die Qualität der Daten entscheidend, auf Grund derer die Einschätzung der Versicherungskunden vorgenommen wird. Die Assekuranzen müssen künftig gegenüber dem Regulierer ausdrücklich belegen, dass ihre Datenbereitstellung den festgelegten Anforderungen genügt. Die Daten, auf deren Grundlage Versicherer kalkulieren und berichten, sollen dabei 'vollständig, richtig und angemessen' sein.

Laut einer Studie der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC haben in Deutschland aber erst einige wenige Versicherer die häufig langwierigen und aufwändigen Projekte zur Datenbereitstellung sowie zur Hebung und Sicherung der Datenqualität initiiert. Denn die heterogenen IT-Landschaften, die über viele Jahre gewachsen sind und in deren Rahmen an unterschiedlichsten Stellen individuelle Lösungen für Detailprobleme implementiert wurden, sorgen nun für Probleme. Vieles ist doppelt und dreifach vorhanden, eine zentrale Datenhaltung und ein unternehmensweites Datenmodell fehlen meist. Unschärfen in der Detaillierung und Konsistenz der Daten in fachlicher und technischer Sicht sowie fehlende historische Daten sind die Folge.

Kundendatenbanken von Assekuranzunternehmen enthalten häufig Dubletten oder sind unvollständig und inkonsistent. Dies ist nicht weiter verwunderlich, denn alleine in Deutschland gibt es im Jahr ca. 4 Millionen Umzüge und etwa 30.000 Änderungen bei Straßen, Postleitzahlen und Orten. Dazu kommen mehrfach angelegte Kundendatensätze, Falscherfassungen und typische Buchstabendreher bei der telefonischen Aufnahme der Adressen oder fehlerhaft ausgefüllte Online-Formulare. Häufig werden die Daten bei der Neuanlage von Adressen nicht sorgfältig genug erfasst oder es wird nicht überprüft, ob der Kunde schon vorhanden ist.

Schätzungen besagen, dass selbst eine gut gepflegte Kundendatenbank zwischen zwei und zehn Prozent Dubletten enthält. Bei einer schlecht gepflegten steigen die Zahlen sogar auf 20 und 30 Prozent. Solche Fehler verursachen hohe Kosten ? beispielsweise in Form von Streuverlusten, weil etwa ein potenzieller Kunde bei einem Mailing mehrere Zusendungen erhält, er aber allenfalls einmal einen Vertrag abschließt. Zwar ist es vergleichsweise einfach, die 'aus dem Fenster geworfenen' Portokosten für Brief-Rückläufer in einer Mailing-Aktion zu erfassen, die wegen fehlerhafter Adressdaten in der Kundendatenbank entstanden sind.

Was das Ganze so kompliziert macht: Häufig hat ein Kunde mehrere Versicherungen bei einer Gesellschaft abgeschlossen, die dort aber von unterschiedlichen Sachbearbeitern (im Zweifelsfall mit verschiedenen IT-Systemen und Kundendatenbanken) betreut werden. Eine einheitliche Sicht auf die Kunden herzustellen, die von allen Mitarbeitern genutzt werden kann, ist also kein leichtes Unterfangen. Das kostenlose Whitepaper 'Kennen Sie Ihre Kunden?' von Human Inference betrachtet die verschiedenen Bereiche, in denen die Kundendatenqualität eine Rolle spielt ? wie z.B. Marketing, Vertrieb, Controlling oder Geschäftsplanung. Aber auch Bereiche wir Kundenbeziehungsmanagement (CRM), Big-Data-Analysen oder Business Intelligence werden darin berücksichtigt.

Mehr zu diesem Thema finden Sie in unserem Whitepaper: "Kennen Sie Ihre Kunden?"

22. Okt 2013

Bewerten Sie diesen Artikel

Noch nicht bewertet

Teilen Sie diesen Artikel

Keywords

Hinweis

Für den Inhalt der Pressemitteilung ist der Einsteller, PresseBox.de, verantwortlich.

Pressemitteilungstext: 517 Wörter, 4407 Zeichen. Artikel reklamieren

Über Human Inference GmbH


Kommentar hinzufügen

Name*
E-Mail*
Institution
Website
Ihr Kommentar*
Bitte lösen Sie 8 + 4

Weitere Pressemeldungen von Human Inference GmbH


Kundendaten: Vertrauen und hohe Datenqualität

Datengetriebener E-Commerce funktioniert nur mit dem Vertrauen der Verbraucher. Aber auch die Datenqualität muss stimmen.

22.10.2014
22.10.2014: Düsseldorf, 22.10.2014 - Laut der Studie "Datenland Deutschland - Die Transparenzlücke", die das Beratungsunternehmen Deloitte kürzlich veröffentlicht hat, lässt sich das Wachstumspotenzial einer datengetriebenen Wirtschaft nur realisieren, wenn das Verbrauchervertrauen gewährleistet ist. Genau das - so das Fazit der Untersuchung - sei aber in Deutschland (noch) nicht gegeben. Vor allem E-Commerce-Anbieter benötigten deshalb eine entsprechende Strategie für den Umgang mit Kundendaten und eine konsistente organisatorische Einbettung in ihr Geschäftsmodell.Denn 83 Prozent der für die S... | Weiterlesen

Whitepaper: E-Commerce braucht hohe Datenqualität

Ein 16-seitiges Whitepaper des niederländischen Softwarehauses Human Inference stellt 'Sechs Erfolgsfaktoren für den datenbasierten E?Commerce' vor.

27.08.2014
27.08.2014: Düsseldorf, 27.08.2014 - Die Qualität der Adressdaten hat einen wichtigen Einfluss auf den Erfolg im Online-Handel. Denn bereits zwei bis fünf Prozent unzustellbarer Warensendungen verursachen höhere Kosten als der Einsatz einer Software für das Adressmanagement, die Fehlsendungen und deren Kosten dauerhaft vermeidet. Doch nur die Installation einer Datenqualitätssoftware alleine reicht nicht aus.In der Praxis haben sich sechs Erfolgsfaktoren für den datenbasierten E?Commerce herauskristallisiert, die das niederländische Softwarehaus Human Inference in einem kostenlosen Whitepaper (Dow... | Weiterlesen

09.04.2014: Düsseldorf, 09.04.2014 - Human Inference, führender europäischer Anbieter im Bereich Datenqualitätslösungen und Master Data Management, und Talend ? weltweit führender Anbieter von Software zur Big-Data-Integration ? bündeln ihre Kompetenzen. Ein Kooperationsvertrag sieht vor, komplexe Projekte im Bereich Datenqualitätsmanagement, Master Data Management (MDM) und Big Data künftig aus einer Hand zu realisieren.Das Schlagwort 'Datability' ist nicht erst seit der diesjährigen CeBIT in aller Munde. Die Rolle der Daten für den Unternehmenserfolg wird immer greifbarer und Firmen investier... | Weiterlesen