← Terug naar Resources
April 2023
Column · Ethiek

Waarom ik weiger AI te bouwen zonder remmen

Over de keuzes die niemand sexy vindt, maar die bepalen of AI in verzekeringen blijft staan.

EthiekResponsible AIVertrouwen
Jack Vos Oprichter Onesurance.ai

Vorig jaar vroeg een prospect ons of we een model konden bouwen dat voorspelt welke klanten "lastig" zijn. Hoog claimgedrag, veel telefoontjes, dat soort werk. Het idee: die klanten minder aandacht geven. Meer tijd voor de winstgevende relaties.

We hebben nee gezegd.

Niet omdat het technisch niet kan. Het kan prima. Maar omdat een model dat klanten rangschikt op hoe "lastig" ze zijn, onvermijdelijk discrimineert. Ouderen bellen vaker. Mensen met een lager inkomen claimen anders. Als je dat in een algoritme stopt zonder het expliciet te benoemen, bouw je vooroordelen in die niemand meer ziet. Dat is precies het soort AI waar ik niet aan mee wil werken.

Uitlegbaarheid is geen feature

In onze sector is uitlegbaarheid geen nice-to-have. Het is een harde eis. Als een adviseur belt met de vraag "waarom staat deze klant bovenaan mijn prioriteitenlijst?", dan moet er een antwoord zijn. Niet "het model zegt het", maar: de polis loopt over zes weken af, de polisdichtheid is laag en er is al negen maanden geen contact geweest.

Wij bouwen daarom geen black-box modellen. Dat is een bewuste keuze die ons soms trager maakt. Een neuraal netwerk levert soms betere voorspellingen dan een interpreteerbaar model. Maar als niemand kan uitleggen waarom klant A prioriteit krijgt boven klant B, dan heb je geen tool. Dan heb je een gok met een dashboard eromheen.

Wat we bewust niet bouwen

We bouwen geen risicoscores op basis van postcodes. Niet omdat de correlatie er niet is -- die is er wel -- maar omdat het een proxy is voor inkomen en achtergrond. We bouwen geen modellen die adviseurs vervangen. En we bouwen geen "engagement scores" die klanten reduceren tot een getal.

Dat klinkt misschien principieel. Het is vooral praktisch. Een verzekeraar die ontdekt dat zijn AI-systeem systematisch bepaalde groepen benadeelt, heeft geen PR-probleem. Die heeft een AFM-probleem. De AI Act maakt dat vanaf 2026 juridisch afdwingbaar.

De onzichtbare keuzes

Het lastige aan ethiek in AI is dat de belangrijkste keuzes onzichtbaar zijn. Welke variabelen neem je mee? Welke laat je bewust weg? Hoe ga je om met bias in historische data? Daar zit niemand op te wachten in een sales-pitch. Maar het bepaalt wel of je systeem over twee jaar nog overeind staat als de toezichthouder langskomt.

Wij werken samen met Brush-AI aan het systematisch managen van die ethische component. Niet als marketingverhaal, maar als onderdeel van ons ontwikkelproces. Elke module die we bouwen doorloopt een ethische toets voordat die in productie gaat. Dat kost tijd. Het levert geen mooie demo's op. Maar het is de reden dat onze klanten ons durven te vertrouwen met hun klantdata.

Ik zit zelf in de adviescommissie KOAT van SIVI, die zich bezighoudt met kwaliteitsbewaking van geautomatiseerde toepassingen in de financiele sector. Wat ik daar zie bevestigt het beeld: de sector beweegt snel, maar de kaders voor verantwoord gebruik lopen achter. Wie nu investeert in uitlegbare, transparante AI bouwt aan iets dat steeds schaarser wordt: vertrouwen.

En vertrouwen is het enige dat je niet kunt automatiseren.

Meer weten? Wij vertellen u graag wat Onesurance voor uw organisatie kan betekenen.

Neem contact op