KI ist mehr als ein stochastischer Papagei

Der Aufstieg der künstlichen Intelligenz (KI) scheint durch den ChatGPT-Hype den Versicherungssektor erreicht zu haben, und die Diskussion über ihre Auswirkungen ist alles andere als schwarz-weiß. Die Frage ist, wie wir ein Gleichgewicht zwischen den positiven und negativen Aspekten des Aufstiegs der KI finden können, da dieses Gleichgewicht in keinem anderen Sektor so wichtig ist wie in der Versicherungswelt.

AUTOR – JACK VOS – ONESURANCE.NL

Zunächst einmal ist das Konzept der künstlichen Intelligenz sicherlich nicht neu. Der Begriff selbst wurde erstmals während des „Dartmouth Workshop“ im Jahr 1956 verwendet, bei dem sich Wissenschaftler trafen, um zu diskutieren, wie Maschinen intelligentes Verhalten zeigen könnten. Seitdem können wir drei Hauptphasen in der Entwicklung der KI im Versicherungssektor unterscheiden:

Regelbasierte Systeme (1960-1990) In den frühen Jahren der KI nutzten diese Systeme nur manuell eingegebene Regeln, um einfache Entscheidungen auf der Grundlage spezifischer Eingaben zu treffen. Zum Beispiel die Annahme basierend auf einfachen vordefinierten Regeln. Diese Systeme waren noch zu begrenzt, um komplexe Entscheidungen zu treffen.

Statistische Modellierung und Datenanalyse (1990-2010) Mit der Verbesserung der Computer und der Intelligenz von Analysesoftware wurden Machine-Learning-Modelle eingesetzt, um Muster und Trends in großen Mengen von Versicherungsdaten zu entdecken. Dies war besonders hilfreich bei der Risikobewertung und Betrugserkennung.

Maschinelles Lernen und prädiktive Analytik (2010-heute) Mit dem Aufkommen fortschrittlicherer Machine-Learning-Techniken, wie neuronale Netze und Deep Learning, wurde es möglich, noch komplexere Analysen durchzuführen. Dazu gehört die Vorhersage des Kundenverhaltens, die Festlegung von Tarifen basierend auf individuellen Merkmalen und die Erkennung von betrügerischen Aktivitäten mit höherer Genauigkeit. KI wird auch eingesetzt, um den Kundenservice mit Chatbots, virtuellen Assistenten und automatisierten Interaktionen zu verbessern.

Und jetzt, seit November 2022, gibt es Chat-GPT, in das Microsoft 10 Milliarden Euro investieren möchte. Dies ist ein großes Sprachmodell (LLM), das das nächste Wort in einem Text vorhersagt und menschliche Sprache nachahmt. Unter erfahrenen Datenexperten, die seit Jahren an der Verfeinerung von Algorithmen und dem Verständnis von Big Data arbeiten, hat der jüngste KI-Hype, ausgelöst durch ChatGPT, eine Mischung aus Aufregung und Besorgnis hervorgerufen. Zwei Tweets prominenter KI-Figuren fassen den Kontrast zwischen den positiven und negativen Aspekten gut zusammen.

Die positive Seite: „Es wird glorreich werden“ Tweet 1 stammt von dem bekannten Risikokapitalgeber Marc Andreessen im Januar 2023: „Wir treten gerade in ein KI-gesteuertes goldenes Zeitalter des Schreibens, der Kunst, der Musik, der Software und der Wissenschaft ein. Es wird glorreich werden. Weltgeschichtlich.“ Die Aufregung um KI ist sicherlich gerechtfertigt im Versicherungssektor, da sie neue Möglichkeiten eröffnet hat, die einst unvorstellbar schienen. KI verspricht Effizienz und Genauigkeit auf einem neuen Niveau. KI kann sehr große Datenmengen analysieren und Einblicke in die Risikobewertung, Schadensbearbeitung oder den Kundenservice geben, die menschliche Prüfer niemals erreichen könnten. Die Vorteile der KI sind einfach zu attraktiv, um sie zu ignorieren, weshalb immer mehr Entscheidungsträger KI auf die Agenda setzen. Sie ermöglicht es Versicherungsunternehmen, Wettbewerbsvorteile zu erlangen, das Kundenerlebnis zu verbessern und gleichzeitig die Kosten zu senken. Kurz gesagt, eine einzigartige Gelegenheit, als „Data Master“ in einer traditionellen Branche, die Veränderungen unterliegt, führend zu sein.

Die negative Seite: „Ein irreführender Eindruck von Großartigkeit“ Der Kontrast zu Tweet 2 ist krass: „ChatGPT ist unglaublich begrenzt, aber in einigen Dingen gut genug, um einen irreführenden Eindruck von Großartigkeit zu erzeugen. Es ist ein Fehler, sich jetzt auf irgendetwas Wichtiges zu verlassen. (…)“ Der Autor dieses Tweets ist Sam Altman, der Gründer und CEO von OpenAI’s ChatGPT selbst. Haben Sie schon einmal einen CEO gehört, der über sein eigenes Produkt sagt, dass es gut darin ist, einen falschen Eindruck von Großartigkeit zu erzeugen? Die Besorgnis ist gerechtfertigt, denn Überzeugungskraft ist in der Tat der Hauptfaktor, der es falschen Informationen ermöglicht, ihre verheerende Wirkung zu entfalten. Die Überzeugungskraft von ChatGPT wird in dieser Hinsicht überschätzt. Das bedeutet, dass jeder, der beruflich mit der Wahrheit zu tun hat, wachsam sein muss, denn die richtigen Fragen zu stellen, kann sehr glaubwürdigen und überzeugenden Unsinn produzieren. Laut Professor Terrence Sejnowski, Autor von The Deep Learning Revolution, spiegeln Sprachmodelle auch die Intelligenz und Vielfalt ihres Interviewers wider. Sejnowski fragte beispielsweise ChatGPT-3: „Was ist der Weltrekord für das Gehen über den Ärmelkanal?“ worauf GPT-3 antwortete: „Der Weltrekord für das Gehen über den Ärmelkanal beträgt 18 Stunden und 33 Minuten.“ Die Wahrheit, dass man den Ärmelkanal nicht zu Fuß überqueren kann, wurde von GPT-3 leicht gebogen, um Sejnowskis Frage zu entsprechen. Die Kohärenz von GPT-3s Antwort hängt vollständig von der Kohärenz der Frage ab, die es erhält. Plötzlich ist es für GPT-3 möglich, auf Wasser zu gehen, nur weil der Interviewer das Verb „gehen“ anstelle von „schwimmen“ verwendet hat.

Es gibt eine auffällige Analogie, die die Nachteile der KI veranschaulicht: den stochastischen Papagei. Stochastisch bedeutet „zufällig oder auf Zufall basierend“ und bezieht sich auf Prozesse, bei denen die Ergebnisse nicht vollständig vorhersehbar sind. KI, insbesondere in Form von generativer KI wie Chat-GPT, funktioniert im Wesentlichen als Wiederholungsmechanismus ohne vollständiges Verständnis. Genau wie ein Papagei Wörter wiederholen kann, ohne ihre Bedeutung zu kennen, kann KI (Text-)Muster reproduzieren, ohne die zugrunde liegende Logik zu verstehen. Dies ist besorgniserregend, insbesondere wenn wir an Entscheidungen mit erheblichen Konsequenzen denken, wie die Annahme von Risiken oder die Bewertung von Versicherungsschäden. Wenn KI verwendet wird, um diese Entscheidungen zu treffen, ohne das Umfeld gründlich zu verstehen und ohne menschliches Eingreifen, den sogenannten „Menschen in der Schleife“, können unbeabsichtigte Fehler auftreten. Diese inhärente Unvorhersehbarkeit kann zu Kundenzufriedenheit, ethischen Problemen und letztendlich zum Vertrauensverlust in die Versicherungsbranche führen. Hinzu kommt die Komplexität der KI-Implementierung und Bedenken hinsichtlich der Privatsphäre und Sicherheit, und es ist verständlich, dass einige Entscheidungsträger in Versicherungsunternehmen zögern, voll in KI zu investieren.

Die wichtige Rolle der spezifischen KI Die intensive Debatte über KI scheint sich hauptsächlich auf generative KI zu konzentrieren, von der ChatGPT das bekannteste Beispiel ist. Generative KI bezieht sich auf einen Teilbereich der künstlichen Intelligenz, der Algorithmen verwendet, um neue, originale und kreative Ergebnisse zu erzeugen. Die Unterscheidung zwischen generativer KI und spezifischer KI wird im Versicherungssektor immer relevanter. Spezifische KI konzentriert sich auf die Lösung spezifischer Probleme oder die Ausführung spezifischer Aufgaben. Die Hauptanwendung der spezifischen KI in der Versicherungsbranche war jahrelang die prädiktive Analytik. Mit historischen Daten können sehr genaue Vorhersagen zuverlässig und mathematisch getroffen werden, zum Beispiel für die Risikobewertung, die Entwicklung der Combined Ratio, Schadensbeträge oder den effektivsten Kundenservice. Zuverlässigkeit und Genauigkeit sind typischerweise Eigenschaften, die in der Versicherungsbranche verlangt werden. Spezifische KI ist auch kein „Hype“ und wurde in den letzten 10 Jahren zunehmend erfolgreich angewendet, insbesondere von den „Data Masters“ auf dem Markt. Data Masters sind Unternehmen, die ihre Ressourcendaten optimal nutzen, unter anderem durch den Einsatz von Data Science und KI.

Für Versicherer ist die Daten der Schlüssel zum Erfolg [Cap Gemini] Laut einer kürzlich durchgeführten Cap Gemini-Studie unter 204 Versicherern weltweit können sich nur 18% der Versicherer als „Data Masters“ bezeichnen. Mehr als 70% der Versicherer gehören immer noch zu den „Data Laggards“. Die Unterschiede sind auffällig: Der Umsatz pro FTE ist bei einem Data Master um 175% höher, und sie sind 63% profitabler als Data Laggards. Initiativen von Data Masters im Bereich Data Science und KI führen in mehr als 95% der Fälle zu einem höheren NPS, einer verbesserten Combined Ratio und einem gesteigerten Prämieneinkommen. Neben Zuverlässigkeit und Genauigkeit ist ein bedeutender Vorteil spezifischer KI-Systeme, dass Entwickler die Transparenz und Fairness der Algorithmen genau steuern und anpassen können. Auf diese Weise können Anwendungen entworfen und kalibriert werden, um die ethischen Datenstandards des niederländischen Versicherungsverbands zu erfüllen. Derzeit ist dies laut dem CEO von ChatGPT selbst für generative KI-Anwendungen sehr herausfordernd.

Das Gleichgewicht finden: entscheidend für den Versicherungssektor Die Frage ist letztlich: Können wir KI vertrauen oder nicht (noch nicht)? Eine bekannte Definition von Vertrauen lautet: „Der Glaube an einen guten Ruf und Ehrlichkeit.“ Der niederländische Versicherungsverband hat ethische Datenrahmen etabliert, um sicherzustellen, dass datengetriebene Versicherungsanwendungen fair und respektvoll sind. Die Einhaltung dieser Rahmenbedingungen sollte sicherstellen, dass der Einsatz von KI nicht zu Diskriminierung führt, zum Beispiel. Niemand will einen zweiten „Leistungen-Skandal“, der den guten Ruf des Versicherungsunternehmens schwer beschädigen könnte. Dies stellt eine zusätzliche Herausforderung dar, insbesondere weil KI komplexe Muster entdecken kann, die für das menschliche Auge unsichtbar sind. Die Fähigkeit, diese Muster zu erklären und ethische Standards aufrechtzuerhalten, ist entscheidend, um das Vertrauen in den Sektor zu erhalten. Hier liegt eine wichtige Aufgabe und Verantwortung für erfahrene Datenexperten und KI-Strategen in unserer Branche. Mit relevantem Wissen und Erfahrung in KI und einem gründlichen Verständnis des Versicherungskontexts können sie das Gleichgewicht zwischen technologischer Innovation und ethischen Überlegungen aufrechterhalten. Wir müssen nicht nur darauf achten, was KI für uns tun kann, sondern auch darauf, was menschliche Experten zu einer nachhaltigen und ausgewogenen Zukunft beitragen können. KI geht nicht nur um Innovation und mehr Effizienz, sondern auch darum, den menschlichen Faktor und das Vertrauen zu bewahren, die in unserer Branche so entscheidend sind. Dieses Gleichgewicht zu finden, ist eine Herausforderung, aber auch eine Verpflichtung, die wir ernst nehmen müssen.

Starten Sie mit der KOAT-Checkliste von SIVI KOAT steht für Qualitätsunbemannte Beratungs- und Transaktionsanwendungen. „Unbemannte Anwendungen“ ist ein schöner Begriff für intelligente Technologie, die Aufgaben, nicht Menschen, ersetzen kann. Der zunehmende Einsatz solcher automatisierten Anwendungen im Finanzsektor, kombiniert mit neuen (europäischen) Vorschriften, macht die Qualitätskontrolle unbemannter Anwendungen immer wichtiger. SIVI hat mit der Plattform Unmanned Applications ein Tool entwickelt, das eine Wissensbasis und eine Checkliste enthält, für alle Parteien, die unbemannte Anwendungen entwickeln und nutzen. Mit einer breiten Vertretung im Quality Unmanned Applications Advisory Committee zeigt der Sektor sein Engagement für diese Plattform. Besuchen Sie www.sivi.org.

Post Tags :

Share :

Nach oben scrollen