Goodbye, Excel? Diese Chancen bietet Actuarial Data Science für das Aktuariat der Zukunft

Verbesserte Risikomodelle, Data-driven Pricing oder eine intelligente Betrugserkennung Actuarial Data Science bietet enormes Potenzial – vorausgesetzt, Unternehmen sind bereit, frischen Wind ins Aktuariat zu bringen.

Veröffentlicht: Zuletzt aktualisiert:

Fachartikel, Versicherungswirtschaft

1 Min. Lesezeit
Actuarial Data Science

Video killed the radio star; data science killed the Excel sheet?

Vor einigen Jahrzehnten galt Excel als Revolution, später brachten VBA und R Automatisierungen. Heute eröffnet KI-gestützte Data Science dem Aktuariat vielfältige Optimierungsmöglichkeiten. Wie kann der nächste Schritt in Data Science gelingen? Was sind typische Fallstricke bei der Umsetzung von Data Science? Und welche Anwendungsfälle haben sich bereits bewährt?

Mit KI die Nadel im Heuhaufen finden: Mehr Genauigkeit durch Data Science

In der Versicherungsbranche werden täglich immense Datenmengen ausgewertet – ein ideales Einsatzfeld für datengetriebene Methoden. Dennoch erfolgen im Aktuariat viele Prozesse noch immer manuell. Dabei bietet Data Science intelligente Automatisierungsmöglichkeiten: Machine Learning erkennt Muster, die klassische Modelle übersehen. So verbessern sich Prognosen, Risiken werden präziser bewertet und Prozesse optimiert. Die Bearbeitungszeit sinkt, die Qualität der versicherungsmathematischen Modelle steigt.

Regularien von außen, Akzeptanzsuche im Inneren: Typische Fallstricke beim Einsatz von Actuarial Data Science

Mehr Effizienz, mehr Präzision, weniger Aufwand: Die Vorteile von Data-Science-Technologien liegen auf der Hand. Dennoch sind Unternehmen gut beraten, sich intensiv mit den möglichen Hürden zu befassen, um eine möglichst reibungslose Implementierung von Actuarial Data Science zu ermöglichen: 

  • Unterschiedliche Datenstrukturen und inkonsistente Datenquellen erschweren die Harmonisierung und Analyse größerer Datenmengen, besonders bei der Zusammenführung historischer und aktueller Datenbestände.
  • Unvollständige, veraltete oder inkonsistente Daten verfälschen die Ergebnisse aller Analysen und Modelle. Ohne qualitativ hochwertige Daten kann das Potenzial von Data Science im Aktuariat daher nicht ausgeschöpft werden. Regelmäßige Validierungen sind deshalb unverzichtbar, um Fehler frühzeitig zu erkennen und die Datenbasis kontinuierlich zu verbessern.
  • „Legacy-Systeme“ – also veraltete IT-Landschaften mit begrenzter Schnittstellenfähigkeit – verhindern eine nahtlose Integration moderner Technologien und erhöhen den Anpassungsaufwand.
  • „Black-Box-Modelle“ und Regulatorik – also Analyse- oder Prognosemodelle mit intransparentem Entscheidungsweg – können schnell zum Fallstrick werden: Wenn Fachabteilungen die Funktionsweise nicht verstehen, sinkt die Akzeptanz im Arbeitsalltag. Neue Methoden werden dann nicht genutzt oder bewusst umgangen. Auch aus regulatorischer Sicht ist fehlende Nachvollziehbarkeit kritisch. Die Data-Science-Methoden müssen diskriminierungsfrei und fair sein. Es muss sichergestellt sein, dass nicht unbeabsichtigt bestimmte Religionen, Herkunftsländer etc. benachteiligt werden. Das wird im Allgemeinen Gleichbehandlungsgesetz (AGG) geregelt. Solvency II verlangt robuste Validierungsprozesse für Modelle im Risikomanagement und eine lückenlose Dokumentation wie auch Erklärbarkeit von Rechenmodellen. Und auch DORA spielt eine Rolle, wenn Anwendungen z. B. auf Servern externer Cloud-Anbieter laufen. Darüber hinaus ist sicherzustellen, dass die DSGVO eingehalten wird. Prüfen Sie daher: Welche personenbezogenen Daten dürfen verwendet werden und in welchem Ausmaß? Auch Anonymisierung ist hier denkbar.

Auf dem Weg zu einer zukunftsfähigen, datengetriebenen aktuariellen Wertschöpfung müssen Unternehmen Prozesse frühzeitig anstoßen. Eine wichtige Säule ist dabei die professionelle, fachkundige Umsetzung durch versierte Actuarial-Data-Science-Spezialisten.

Mögliche Anwendungsfälle

Moderne Algorithmen erkennen komplexe Muster und Abhängigkeiten in umfangreichen historischen Schadensdaten, die mit klassischen Verfahren oft unentdeckt bleiben. Besonders effektiv sind dabei Verfahren des Supervised Learning wie Regressionsmodelle oder Klassifikationsverfahren, aber auch die Methoden der Gradient Boosting Machines (GBMs) und Random Forests. Sie liefern dem Aktuariat deutlich präzisere Prognosen zur Schadenhöhe und -häufigkeit. Individuelle Merkmale lassen sich stärker berücksichtigen, die Risikobewertung wird differenzierter.

Beispiel Risikomodellierung in der Kfz-Versicherung: Historische Vertrags- und Schadensdaten werden für die Entwicklung eines Prognosemodells für die Schadenhäufigkeit verwendet. GBMs analysieren dabei Merkmale wie Region, Fahrzeugalter, Schadenart und Vertragsdauer. Auf Basis dieser Erkenntnisse passt das Aktuariat die Tarifstruktur an und segmentiert Kunden feiner nach Risikoprofil.

Auch wenn in vielen Fällen kein Weg an der Ablösung von Legacy-Systemen vorbeiführt, sind Systemwechsel für Versicherungsunternehmen trotz aller Vorteile mit erheblichen Risiken verbunden – insbesondere im Hinblick auf die Korrektheit und Nachvollziehbarkeit der überführten Datenbestände. Durch intelligente, automatisierte Analysen wird eine automatische Validierung und Plausibilitätsprüfung von Migrationsdaten ermöglicht. Auch die Generierung realistischer Testdaten zur Qualitätssicherung kann durch Data-Science-Verfahren effizient unterstützt werden. Dadurch ermöglicht Data Science eine höhere Genauigkeit und Datenqualität, signifikante Zeit- und Kosteneinsparungen und eine verbesserte Nachvollziehbarkeit bei Prüfungen. Zudem können Fehler frühzeitig identifiziert und regulatorische Anforderungen besser erfüllt werden. Auch die Flexibilität für zukünftige Migrationen wird verbessert.

Beispiel Automatisiertes Datenmapping zwischen Alt- und Neusystemen: Durch Natural Language Processing (NLP) oder regelbasierte Algorithmen können Felder systematisch abgeglichen und konvertiert werden. Auffälligkeiten, Inkonsistenzen oder fehlende Werte im Datenbestand können Aktuarinnen und Aktuare so frühzeitig erkennen.

Die dynamische Tarifierung nutzt moderne Data-Science-Methoden, um Versicherungsprämien in Echtzeit an individuelle Risiken und Marktbedingungen anzupassen. Ziel ist es, die optimale Prämienhöhe in Echtzeit bestimmen zu können.

Hierzu können unterschiedliche Methoden zum Einsatz kommen:

  • Clustering-Methoden (Unsupervised Learning): Kunden mit ähnlichem Verhalten oder Risikoprofil werden automatisch in homogene Gruppen eingeteilt. Dadurch lassen sich Tarife und Marketingmaßnahmen präziser ausrichten.
  • Predictive Analytics (Supervised Learning): Modelle analysieren das Kundenverhalten, um Vorhersagen über Schadenhäufigkeit, Kündigungswahrscheinlichkeit oder Produktinteresse zu treffen.

Beispiel aus der Wohngebäudeversicherung: Dynamische Modelle ermöglichen die Anpassung von Prämien anhand aktueller Daten: Die Tarife werden basierend auf lokalen Extremwetterbedingungen angepasst, um eine risikogerechtere Kalkulation zu ermöglichen.

Versicherungsbetrug ist nach wie vor ein signifikanter Kostenfaktor – gleichzeitig wird er zunehmend komplexer und damit schwerer erkennbar. KI bietet praktische Werkzeuge, um verdächtige Muster frühzeitig zu identifizieren und Schäden zu minimieren. Sogenannte Graph Neural Networks (GNNs) legen verborgene Verbindungen zwischen scheinbar unabhängigen Betrugsakteuren offen, wenn mehrere gemeldete Schäden beispielsweise auf denselben Arzt oder Gutachter zurückzuführen sind.

Beispiel Anomalieerkennung mit Unsupervised Learning: Mithilfe von Machine Learning können Betrugsfälle genauer aufgedeckt werden. Diese Fälle können in die Schadenkalkulation einbezogen werden, damit manipulierte Fälle die Statistik nicht verzerren. Gleichzeitig fließen die Betrugsmuster in die Risikobewertung ein: Betroffene Segmente können dadurch differenzierter bepreist werden. So trägt die automatisierte Betrugserkennung dazu bei, Prämien fairer zu gestalten und Rückstellungen realistischer zu planen.

Fünf Erfolgsfaktoren für die Umsetzung von Data Science im Aktuariat

Damit Actuarial Data Science im Aktuariat echten Mehrwert stiftet, ist eine ganzheitliche Herangehensweise mit klar definierten Zielen gefragt. Denn auch die besten Modelle nützen nichts, wenn sie in Silos entwickelt werden oder im Tagesgeschäft keine Akzeptanz finden. Fünf Faktoren sind daher erfolgskritisch:

Datenstrategie aufbauen

Eine konsistente, qualitätsgesicherte Datenbasis ist das Fundament jeder datengetriebenen Arbeit. Einheitliche Datenstrukturen, eine zentrale Datenhaltung und eine klare Data Governance schaffen die Voraussetzungen für verlässliche Analysen und transparente Modelle.

Technologische Grundlagen schaffen

Der Einsatz moderner Tools wie Python oder R sowie skalierbarer Cloud-Lösungen ermöglicht flexible, performante und reproduzierbare Analysen – auch bei großen Datenmengen.

Fachübergreifende Zusammenarbeit fördern

Data Science ist Teamarbeit. Erst wenn Aktuare, Data Scientists und IT-Spezialisten Hand in Hand arbeiten, können innovative Lösungen effizient entwickelt und umgesetzt werden. Die interdisziplinäre Projektarbeit ist daher unerlässlich.

Regulatorische Konformität sicherstellen

Transparenz und Nachvollziehbarkeit sind bei KI-gestützten Verfahren essenziell – insbesondere in regulierten Branchen wie der Versicherungswirtschaft. Modelle müssen erklärbar und prüfbar sein, um Akzeptanz in den Fachbereichen und bei Aufsichtsbehörden zu finden.

Mit Pilotprojekten starten

Kleine, klar umrissene Use Cases ermöglichen schnelle Erfolge und wichtige Lerneffekte. Sie helfen, Prozesse zu testen, internes Vertrauen aufzubauen und skalierbare Lösungen zu entwickeln. Dabei sollte aber nie der Gesamtprozess aus den Augen verloren werden, um den Einsatz von Data Science später einfach skalieren zu können.

Der Aufbruch zum datengetriebenen Aktuariat

So spannend und vielversprechend KI-gestützte Data-Science-Methoden auch sind – Excel wird nicht über Nacht verschwinden. Im Gegenteil: Bewährte Tools wie Excel bleiben auch in Zukunft ein fester Bestandteil aktuarieller Arbeit. Der Wandel hin zu Actuarial Data Science bedeutet also kein Entweder-oder, sondern ein intelligentes Zusammenspiel bewährter und neuer Werkzeuge.

Dabei zeigt sich: Die größte Hebelwirkung entsteht nicht allein durch neue Technologien oder smarte Algorithmen. Es bedarf zusätzlich eines Umdenkens sowohl in den Prozessen und Methoden als auch in der Zusammenarbeit aller Abteilungen. Actuarial Data Science ist kein reines IT- oder Aktuariats-Vorhaben, sondern ein gemeinsamer Transformationsprozess – fachlich, technologisch und kulturell.

Autor

Patrick Boers ist Aktuar und seit sechs Jahren in der Lebensversicherungsbranche tätig. Sein Schwerpunkt liegt dabei auf Bestandsmigrationen sowie der Automatisierung von Prozessen – mit dem Ziel, Effizienz und Zukunftsfähigkeit in Versicherungsunternehmen zu fördern.

Patrick Boers

Ihr Ansprechpartner

Patrick Boers

Herausforderungen von LLMs für Versicherer

Veröffentlicht am 23.04.2025

Generative KI und Recht: Herausforderungen von LLMs für Versicherer

Welche Vorgaben bringen der EU AI Act, DSGVO und DORA für einen rechtssicheren Einsatz in der Versicherungsbranche mit sich? Diese Fragen beleuchtet Frank Stiegler in seinem Fachartikel in der „Zeitschrift für Versicherungswesen“.

MaBiS-Hub und seine Auswirkungen auf VNB, MSB und BKV

Veröffentlicht am 23.04.2025

Zentralisierung der Strombilanzierung: Der MaBiS-Hub und seine Auswirkungen auf VNB, MSB und BKV

Die Einführung von MaBiS 3.0 und des zentralen MaBiS-Hubs markiert einen Wendepunkt in der Energiewirtschaft. Der bisher dezentrale Prozess der Bilanzierung wird durch eine zentrale Plattform ersetzt – mit weitreichenden Auswirkungen auf Verteilnetzbetreiber (VNB), Messstellenbetreiber (MSB) und Bilanzkreisverantwortliche (BKV). Doch…

SAP Datenarchivierung mit SAP ILM

Veröffentlicht am 11.04.2025

Wachsende Datenberge in SAP? Herangehensweise & Best Practices für die SAP Datenarchivierung

SAP-Systeme speichern täglich riesige Datenmengen – ohne klare Archivierungsstrategie drohen Performance-Verlust, hohe Betriebskosten und Compliance-Risiken. Der Beitrag zeigt praxisnah, wie Unternehmen mit SAP ILM oder SARA strukturierte Archivierungsprozesse etablieren, gesetzliche Vorgaben wie die DSGVO einhalten und gleichzeitig Speicherressourcen optimieren. Von…