Am 22.04.2021 fand der 17. Roundtable Ruhrgebiet statt, weiterhin nur „online“ unter Verwendung von Microsoft Teams. Im Fokus stand diesmal das Thema Datenqualitätsmanagement, wobei die Referenten von der LVM Versicherung dies zunächst überblicksartig eingeführt und dann im Aspekt distanzbasierter Metriken vertieft haben. Die Veranstaltung wurde von gut 50 Teilnehmern besucht.
Gastredner des Vortrags waren Dr. Sven Jannaber und Dr. Christian Simon von der LVM Versicherung.
Datenqualitätsmanagement im Kontext von Solvency II- Ein Praxisbericht zur Einführung automatisierter Datenqualitätsprüfungen bei der LVM Versicherung
Im ersten Vortragsteil stand das prinzipielle Vorgehen für die Einführung automatisierter Datenqualitätsprüfungen im Vordergrund, vorgetragen wurde dieser Teil primär von Dr. Sven Jannaber.
Ausgangspunkt waren die internen und externen Anforderungen, die nur mit einem robusten Datenqualitätsmanagement nachhaltig umgesetzt werden können. So adressiert Solvency II beispielsweise implizit die Kriterien Genauigkeit, Vollständigkeit und Angemessenheit. Entsprechend wurde ein Einführungsprojekt für das Datenqualitätsmanagement mit dem Ziel gestartet, durch eine systematische Vorgehensweise die Datenqualität zu institutionalisieren und automatisieren.
Das Projekt wurde als agiles Projektvorgehen nach SCRUM aufgesetzt mit kurzen Entwicklungszyklen von 3 Wochen. Der wichtigste Baustein für die konkret Datenqualitätsprüfungen sind dabei die Datenqualitätsregeln. Diese werden nach einem Prüfauftrag abgestimmt und erhoben, umgesetzt und schließlich in das Reporting eingebunden. Anhand von Beispielprüfungen wurde aufgezeigt, wie die Kategorien Genauigkeit, Vollständigkeit und Angemessenheit berücksichtigt werden.
Im Reporting resultiert schließlich eine Scorecard mit zusammenfassenden Messgrößen zur Datenqualität sowie einer detaillierten Auflistung aller Regeln und Ampelbewertung inklusive Trendanzeige. Die Prüfungen laufen automatisiert mit unterschiedlicher Periodizität, z. B. täglich.
Als Erfolgsfaktoren fasst Dr. Jannaber zusammen, dass ein hohes Maß an Abstimmung mit den Fachbereichen notwendig und Metadaten-Management sehr wertvoll ist, die Einführung inkrementell erfolgen sollte und Rollen sowie Verantwortlichkeiten geklärt und gelebt werden müssen. Er schließt mit dem positiven Feedback, dass die Projektziele erreicht wurden.
Datenqualitätsmessungen mittels distanzbasierter Metriken – Vergleiche mit Datenbeständen aus der Vergangenheit
Der zweite Vortragsteil wurde von Dr. Christian Simon bestritten und das mathematische Modell für Datenqualitätsmessungen vertieft.
Ausgangspunkt waren die unterschiedlichen Datenqualitätsdimensionen und die Beobachtung, dass die unterschiedlichen Fachbereiche diese Dimensionen unterschiedlich gewichten. Hinter jeder dieser Dimensionen steht eine Datenqualitätsmetrik und Dr. Simon hat zunächst allgemeine Anforderungen an solche Metriken vorgestellt. Anschließend wurde für Genauigkeit, Vollständigkeit und Angemessenheit jeweils eine derartige Metrik anhand einer Formel erläutert.
Als Herausforderung in der konkreten Anwendung hat sich gezeigt, dass z. B. die Anzahl der Versicherungsfälle im Zeitablauf pro Sparte nicht gleichverteilt ist und entsprechend Referenzwerte für das Messen der Datenqualität nur schwierig zu definieren sind. Ähnliche Herausforderungen zeigen sich bei anderen Variablen. Insofern wurden andere Metriken auf ihre Einsetzbarkeit näher untersucht und schließlich ausgehend von distanzbasierten Metriken ein spezifischer LVM-Ansatz gefunden. Im Kern wird auf Basis einer Funktionsschar ein Portfolio skalierender Funktionen generiert, aus dem die konkrete Funktion dann per Intervallschachtelung gewählt wird.
Übertragen auf die reale Anwendung liefert dieser Ansatz die gewünschten Ergebnisse und eignet sich zur interpretierbaren Datenqualitätsmessung.
Diskussion
Zu beiden Themen wurde angeregt diskutiert, zum Beispiel in Hinblick auf die organisatorische Zuständigkeit des Datenqualitätsmanagements sowie in Hinblick auf den Datenschutz und die Anzeige personenbezogener Daten. Im Rahmen der Metriken wurde die Interpretierbarkeit der Daten diskutiert.
Der nächste Roundtable Ruhrgebiet ist für den Sommer 2021 geplant.
* Der Beitrag spiegelt die Meinung des Autors wider und ist keine allgemeingültige Meinung des TDWI. Als TDWI bieten wir die Plattform, alle Themen und Sichtweisen zu diskutieren. *
Schreibe einen Kommentar