Aankondiging: Gespecialiseerd AI fonds CuriosityVC strategische investeerder bij Onesurance

Aankondiging: Gespecialiseerd AI fonds CuriosityVC strategische investeerder bij Onesurance

Aankondiging: Gespecialiseerd AI fonds CuriosityVC strategische investeerder bij Onesurance

1 nov. 2023

Meer dan een stochastische papega-ai

Jack Vos, Onesurance, in VVP 4, 2023

De opmars van Artificial Intelligence (AI) lijkt middels de ChatGPT hype ook de verzekeringssector bereikt te hebben en de discussie over de effecten ervan is allesbehalve zwart-wit. De vraag is hoe we een evenwicht kunnen vinden tussen de positieve en negatieve aspecten van de opkomst van ai, want in geen enkele sector is deze balans zo cruciaal als in de verzekeringswereld.

Om te beginnen is het concept van kunstmatige intelligentie bepaald niet nieuw. De term zelf werd voor het eerst gebruikt tijdens de ‘Dartmouth Workshop’ in 1956, waar wetenschappers bij elkaar kwamen om te bespreken hoe machines intelligent gedrag zouden kunnen vertonen. Sinds die tijd kunnen we drie belangrijke fases onderscheiden in de ontwikkeling van AI binnen het verzekeringslandschap:

• Rule-based systemen (1960-1990). In de beginjaren van AI gebruikten deze systemen alleen handmatig ingevoerde regels om simpele beslissingen te nemen op basis van specifieke input. Bijvoorbeeld, accepteren op basis van simpele vooraf gedefinieerde regels. Deze systemen waren nog veel te beperkt om complexe beslissingen te nemen.

• Statistische modellering en data-analyse (1990-2010). Omdat computers steeds sneller werden en analyse software steeds intelligenter, konden Machine Learning modellen worden ingezet om patronen en trends in grote hoeveelheden verzekeringsdata te ontdekken. Dit hielp met name bij risicobeoordeling en fraudeopsporing.

• Machine Learning en Predictive Analytics (2010-heden). Met de opkomst van meer geavanceerde Machine Learning technieken, zoals neurale netwerken en deep learning , is men in staat gebleken om nog complexere analyses uit te voeren. Dit omvat het voorspellen van klantgedrag, het bepalen van tarieven op basis van individuele kenmerken en het detecteren van frauduleuze activiteiten met een hogere precisie. Ook wordt AI gebruikt voor het verbeteren van klantbediening met chatbots, virtuele assistenten en geautomatiseerde interacties.

En nu is er dus sinds november 2022 Chat-GPT, waarin Microsoft tien miljard euro wil investeren. Dit is een Large Language Model (LLM) dat steeds het volgende woordje in een tekst voorspelt en zo menselijke taal nabootst. Vooral onder doorgewinterde data experts die jarenlang hebben gewerkt aan het verfijnen van algoritmes en het doorgronden van big data, heeft de recente AI-hype veroorzaakt door ChatGPT een mengeling van opwinding en bezorgdheid teweeggebracht. Twee tweets van kopstukken uit het land van AI vatten de tegenstelling tussen de positieve en negatieve aspecten goed samen.

De positieve kant

Tweet 1 is van de bekende venture capitalist Marc Andreessen, in januari 2023: “We are just entering an AIpowered golden age of writing, art, music, software, and science. It’s going to be glorious. World historical.”

De opwinding rond AI is zeker ook voor de verzekeringssector terecht, want het heeft nieuwe mogelijkheden geïntroduceerd die ooit ondenkbaar leken. AI belooft efficiëntie en nauwkeurigheid op een nieuw niveau. AI kan zeer grote hoeveelheden data analyseren en inzichten creëren rondom risicobeoordeling, claimhandling of klantbediening hetgeen voor menselijke beoordelaars nooit mogelijk zou zijn. De voordelen van AI zijn dus simpelweg té aantrekkelijk om te negeren en dat is de reden dat steeds meer beslissers AI op de agenda zetten. Het stelt verzekeringsbedrijven in staat om concurrentievoordelen te behalen, de klantervaring te verbeteren én tegelijkertijd kosten te verlagen. Kortom: een unieke kans om voorop te lopen in een traditionele branche die onderhevig is aan verandering.

De negatieve kant

Het contrast met tweet 2 is groot: “ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. It’s a mistake to be relying on it for anything important right now. (…)”

De auteur van deze tweet is Sam Altman, hij is de grondlegger en CEO van OpenAI’s ChatGPT zelf. Heeft u ooit een CEO over zijn eigen product horen zeggen dat het vooralsnog goed is in het creëren van misplaatste grootsheid ? De bezorgdheid is overigens terecht, want overtuigingskracht is immers de belangrijkste factor om foutieve informatie zijn verwoestende werk te laten doen.

De overtuigingskracht van ChatGPT wordt wat dat betreft overschat. Dit betekent dat iedereen die professioneel op een of andere manier met waarheid(svinding) bezig is, hier alert op moet zijn, want met de juiste vragen kan er uiterst geloofwaardige en overtuigende onzin uit komen.

Volgens professor Terrence Seinowski, auteur van De Deep Learning-revolutie, weerspiegelen taalmodellen daarbij ook nog eens de intelligentie en diversiteit van hun interviewer. Sejnowski vroeg bijvoorbeeld aan ChatGPT-3: “Wat is het wereldrecord wandelen over het Engelse Kanaal?” waarop GPT-3 antwoordde: “Het wereldrecord wandelen over het Engelse Kanaal is 18 uur en 33 minuten” . De waarheid, dat men niet over het Engelse Kanaal kan lopen, werd gemakkelijk verbogen door GPT-3 om Sejnowski’s vraag weer te geven. De coherentie van het antwoord van GPT-3 is volledig afhankelijk van de coherentie van de vraag die het ontvangt. Plotseling is het voor GPT-3 mogelijk om over water te lopen, allemaal omdat de interviewer het werkwoord ‘lopen’ gebruikte in plaats van ‘zwemmen’.


‘AI is net als een papegaai die woorden herhaalt zonder hun betekenis te kennen’ 


Er is een treffende analogie die de nadelen van AI illustreert: de stochastische papegaai. Stochastisch betekent ‘willekeurig of op toeval gebaseerd’, verwijzend naar processen waarbij uitkomsten niet volledig voorspelbaar zijn. AI, vooral in de vorm van Generative AI zoals ChatGPT, fungeert in feite als een herhalend mechanisme zonder volledig begrip. Net zoals een papegaai woorden kan herhalen zonder hun betekenis te kennen, kan AI (tekst)patronen reproduceren zonder het vermogen om de onderliggende logica te begrijpen. Dit is zorgwekkend, vooral wanneer we denken aan beslissingen met grote gevolgen, zoals acceptatie van risico’s of het beoordelen van verzekeringsclaims. Als AI wordt ingezet om deze beslissingen te nemen zonder een grondig begrip van de context , en zonder menselijke interventie, de zogenaamde human in the loop , kunnen er onbedoeld fouten optreden. Deze inherente onvoorspelbaarheid kan leiden tot klantontevredenheid, ethische kwesties en uiteindelijk een ondermijning van het vertrouwen in de verzekeringsindustrie. Tel daarbij de complexiteit van implementatie van AI en zorgen over privacy en security op en je begrijpt dat sommige beslissers bij verzekeringsbedrijven terughoudend zijn om vol in AI te investeren.

Belangrijke rol specifieke ai

De hevige discussie over AI lijkt dus voornamelijk te gaan over Generative AI, waarvan ChatGPT het bekendste voorbeeld is. Generative AI verwijst naar een subset van kunstmatige intelligentie waarbij algoritmen worden gebruikt om nieuwe, originele en creatieve output te genereren . Het onderscheid tussen Generative AI en Specifieke AI wordt in de verzekeringssector steeds relevanter. Specifieke AI is gericht op het oplossen van specifieke problemen of het uitvoeren van specifieke taken. De belangrijkste toepassing van Specifieke AI in de verzekeringsbranche is sinds jaar en dag Predictive analytics. Hiermee kunnen op basis van historische gegevens op een betrouwbare wijze, wiskundig onderbouwd, zeer nauwkeurige voorspellingen worden gedaan, bijvoorbeeld voor risico-inschatting, combined ratio ontwikkeling, claimhoogte of meest effectieve klantbediening. Betrouwbaarheid en nauwkeurigheid zijn typisch kwaliteiten die in de verzekeringsbranche gevraagd worden.

Specifieke AI is dus ook geen ‘hype’ en is in de laatste tien jaar meer en meer succesvol toegepast, met name door de Data Masters in de markt. Data Masters zijn bedrijven die hun resource data optimaal weten te benutten onder andere door inzet van data science en AI.

Naast betrouwbaarheid en nauwkeurigheid is een groot voordeel van de Specifieke AI systemen dat het de ontwikkelaars in staat stelt om de transparantie en eerlijkheid van de algoritmes nauwkeurig te controleren en aan te passen. Zo kunnen toepassingen ontworpen en gekalibreerd worden om te voldoen aan de ethische datanormen die door het Verbond van Verzekeraars worden gesteld. Vooralsnog is dit, zelfs volgens de CEO van ChatGPT zelf, voor Generative AI toepassingen heel uitdagend.

Balans cruciaal voor verzekeringssector

Bottom-line gaat het hier over de vraag: kunnen we op AI vertrouwen of (nog) niet? Een bekende definitie van vertrouwen is: “het geloof in een goede naam en eerlijkheid”. Het Verbond van Verzekeraars heeft niet voor niets ethische datakaders opgesteld om ervoor te zorgen dat data gedreven verzekeringstoepassingen eerlijk en respectvol zijn. Het naleven van deze kaders moet er toe leiden dat de inzet van AI bijvoorbeeld niet leidt tot discriminatie. Niemand wil een tweede ‘toeslagen affaire’ die de goede naam van het verzekeringsbedrijf ernstig zou kunnen schaden.

Dit brengt een extra uitdaging met zich mee, vooral omdat AI in staat is om complexe patronen te ontdekken die voor het menselijk oog onzichtbaar zijn. Het vermogen om deze patronen te verklaren en ethische normen te handhaven, is essentieel voor het behoud van vertrouwen in de sector.


Jack Vos: ‘Specifieke AI is geen hype.’


Hier ligt een belangrijke taak en verantwoordelijkheid voor de ervaren data experts en AI-strategen uit onze branche. Met relevante kennis en ervaring over AI en een grondig begrip van de verzekeringscontext, kunnen zij de balans bewaken tussen technologische innovatie en ethische overwegingen. We moeten niet alleen kijken naar wat AI voor ons kan doen, maar ook naar wat de menselijke experts kunnen bijdragen aan een duurzame en evenwichtige toekomst. Bij AI gaat het dus niet alleen om innovatie en meer efficiëntie, maar ook om het behoud van de menselijke factor en het vertrouwen dat zo cruciaal is in onze branche. Het vinden van deze balans is een uitdaging, maar ook een verplichting die we serieus moeten nemen.

 

The key to success

Volgens een onderzoek van Cap Gemini dat recent gehouden werd onder 204 verzekeraars wereldwijd, kan slechts achttien procent van de verzekeraars zich Data Master noemen. Meer dan 70 procent van de verzekeraars behoort nog tot de Data Laggards . De verschillen zijn stuitend: de omzet per FTE is bij een Data Master 175 procent hoger en ze zijn 63 procent winstgevender dan Data Laggards . Initiatieven van Data Masters rondom data science en AI leiden in meer dan 95 procent van de gevallen tot een hogere NPS, een verbeterde combined ratio en toename van premie-inkomsten.

 

Zelf aan de slag met de koat checklist

KOAT staat voor Kwaliteit Onbemenste Advies- en Transactietoepassingen. ‘Onbemenste toepassingen’ blijft een mooi woord voor slimme technologie die in staat is taken te vervangen, niet mensen. Toenemend gebruik van zulke geautomatiseerde toepassingen in de financiële sector, in combinatie met nieuwe (Europese) regelgeving, maken kwaliteitsbewaking van onbemenste toepassingen steeds belangrijker. SIVI heeft met het Platform Onbemenste Toepassingen, waarin een kennisbank en een checklist zijn opgenomen, een tool ontwikkeld voor alle partijen die onbemenste toepassingen ontwikkelen en gebruiken. Met een brede vertegenwoordiging in de Adviescommissie Kwaliteit Onbemenste Toepassingen toont de sector haar commitment aan dit platform. Kijk op www.sivi.org.

Bron: het originele artikel verscheen in het VVP en is online hier te lezen.


©2024 Onesurance B.V.

Legal

Nederlands

Legal

Nederlands

©2024 Onesurance B.V.

Legal

Nederlands

©2024 Onesurance B.V.