Warum ich mich weigere, KI ohne Leitplanken zu bauen
Über die Entscheidungen, die niemand spannend findet, die aber darüber entscheiden, ob KI in der Versicherung Bestand hat.
Letztes Jahr fragte uns ein Interessent, ob wir ein Modell bauen könnten, das vorhersagt, welche Kunden „schwierig" sind. Hohes Schadenverhalten, viele Anrufe, solche Dinge. Die Idee: Diesen Kunden weniger Aufmerksamkeit schenken. Mehr Zeit für die profitablen Beziehungen.
Wir haben Nein gesagt.
Nicht weil es technisch unmöglich ist. Es ist durchaus machbar. Aber weil ein Modell, das Kunden danach bewertet, wie „schwierig" sie sind, unweigerlich diskriminiert. Ältere Menschen rufen häufiger an. Menschen mit niedrigerem Einkommen melden Schäden anders. Wenn man das in einen Algorithmus einspeist, ohne es explizit anzuerkennen, baut man Verzerrungen ein, die niemand mehr sieht. Genau bei dieser Art von KI weigere ich mich mitzumachen.
Erklärbarkeit ist kein Feature
In unserer Branche ist Erklärbarkeit kein Nice-to-have. Es ist eine harte Anforderung. Wenn ein Berater anruft und fragt „Warum steht dieser Kunde ganz oben auf meiner Prioritätenliste?", muss es eine Antwort geben. Nicht „das Modell sagt es", sondern: Die Police läuft in sechs Wochen aus, die Policendichte ist gering und es gab seit neun Monaten keinen Kontakt.
Deshalb bauen wir keine Black-Box-Modelle. Es ist eine bewusste Entscheidung, die uns manchmal langsamer macht. Ein neuronales Netzwerk liefert gelegentlich bessere Vorhersagen als ein interpretierbares Modell. Aber wenn niemand erklären kann, warum Kunde A Priorität vor Kunde B hat, hat man kein Werkzeug. Man hat eine Vermutung mit einem Dashboard darum.
Was wir bewusst nicht bauen
Wir bauen keine Risikoscores auf Basis von Postleitzahlen. Nicht weil die Korrelation fehlt -- sie existiert -- sondern weil sie ein Proxy für Einkommen und Herkunft ist. Wir bauen keine Modelle, die Berater ersetzen. Und wir bauen keine „Engagement Scores", die Kunden auf eine Zahl reduzieren.
Das mag prinzipientreu klingen. Es ist vor allem pragmatisch. Ein Versicherer, der entdeckt, dass sein KI-System bestimmte Gruppen systematisch benachteiligt, hat kein PR-Problem. Er hat ein regulatorisches Problem. Der AI Act macht dies ab 2026 rechtlich durchsetzbar.
Die unsichtbaren Entscheidungen
Das Schwierige an Ethik in der KI ist, dass die wichtigsten Entscheidungen unsichtbar sind. Welche Variablen nimmt man auf? Welche lässt man bewusst weg? Wie geht man mit Verzerrungen in historischen Daten um? Niemand will das in einem Vertriebsgespräch hören. Aber es entscheidet darüber, ob Ihr System in zwei Jahren noch standhält, wenn der Regulator anklopft.
Wir arbeiten mit Brush-AI zusammen, um die ethische Komponente systematisch zu managen. Nicht als Marketing-Narrativ, sondern als Teil unseres Entwicklungsprozesses. Jedes Modul, das wir bauen, durchläuft ein ethisches Review, bevor es in Produktion geht. Das kostet Zeit. Es produziert keine auffälligen Demos. Aber es ist der Grund, warum unsere Kunden uns ihre Kundendaten anvertrauen.
Ich habe einen Sitz im KOAT-Beirat bei SIVI, der sich auf Qualitätssicherung automatisierter Anwendungen im Finanzsektor konzentriert. Was ich dort sehe, bestätigt das Bild: Die Branche bewegt sich schnell, aber die Rahmenbedingungen für verantwortungsvollen Einsatz hinken hinterher. Wer jetzt in erklärbare, transparente KI investiert, baut etwas auf, das zunehmend knapp wird: Vertrauen.
Und Vertrauen ist das Einzige, was man nicht automatisieren kann.