L’IA est plus qu’un perroquet stochastique

« Est-ce que le buzz autour de l’IA fonctionne définitivement en faveur de Onesurance ? » entendons-nous souvent. L’IA n’est certainement pas juste une mode, et les data scientists expérimentés considèrent cette mode principalement autour de Chat-GPT avec des sentiments mitigés. Dans cet article présenté dans le numéro 4 de VVP, la principale plateforme pour les conseillers financiers aux Pays-Bas, nous approfondissons ce sujet. La montée de l’intelligence artificielle (IA) semble avoir atteint le secteur des assurances grâce au buzz autour de ChatGPT, et la discussion sur ses effets est tout sauf noir et blanc. La question est de savoir comment trouver un équilibre entre les aspects positifs et négatifs de la montée de l’IA, cet équilibre étant crucial dans aucun autre secteur autant que dans le monde de l’assurance.

« Est-ce que le buzz autour de l’IA fonctionne définitivement en faveur de Onesurance ? » entendons-nous souvent. L’IA n’est certainement pas juste une mode, et les data scientists expérimentés considèrent cette mode principalement autour de Chat-GPT avec des sentiments mitigés. Dans cet article présenté dans le numéro 4 de VVP, la principale plateforme pour les conseillers financiers aux Pays-Bas, nous approfondissons ce sujet. La montée de l’intelligence artificielle (IA) semble avoir atteint le secteur des assurances grâce au buzz autour de ChatGPT, et la discussion sur ses effets est tout sauf noir et blanc. La question est de savoir comment trouver un équilibre entre les aspects positifs et négatifs de la montée de l’IA, cet équilibre étant crucial dans aucun autre secteur autant que dans le monde de l’assurance.

L’IA : Plus qu’un perroquet stochastique
La montée de l’intelligence artificielle (IA) semble avoir atteint le secteur des assurances grâce au buzz autour de ChatGPT, et la discussion sur ses effets est tout sauf noir et blanc. La question est de savoir comment trouver un équilibre entre les aspects positifs et négatifs de la montée de l’IA, cet équilibre étant crucial dans aucun autre secteur autant que dans le monde de l’assurance.
AUTEUR – JACK VOS – ONESURANCE.NL
Pour commencer, le concept d’intelligence artificielle n’est certainement pas nouveau. Le terme lui-même a été utilisé pour la première fois lors de la « Dartmouth Workshop » en 1956, où des scientifiques se sont réunis pour discuter de la manière dont les machines pourraient afficher un comportement intelligent. Depuis lors, nous pouvons distinguer trois phases principales dans le développement de l’IA dans le paysage de l’assurance :
Systèmes basés sur des règles (1960-1990)
Dans les premières années de l’IA, ces systèmes n’utilisaient que des règles saisies manuellement pour prendre des décisions simples basées sur des entrées spécifiques. Par exemple, l’acceptation basée sur des règles prédéfinies simples. Ces systèmes étaient encore trop limités pour prendre des décisions complexes.
Modélisation statistique et analyse de données (1990-2010)
À mesure que les ordinateurs devenaient plus rapides et que les logiciels d’analyse devenaient plus intelligents, des modèles d’apprentissage automatique étaient déployés pour découvrir des motifs et des tendances dans de grandes quantités de données d’assurance. Cela était particulièrement utile dans l’évaluation des risques et la détection des fraudes.
Apprentissage automatique et analyse prédictive (2010-présent)
Avec l’avènement de techniques d’apprentissage automatique plus avancées telles que les réseaux neuronaux et l’apprentissage profond, il est devenu possible de réaliser des analyses encore plus complexes. Cela inclut la prédiction du comportement des clients, la détermination des taux basés sur des caractéristiques individuelles et la détection d’activités frauduleuses avec une précision accrue. L’IA est également utilisée pour améliorer le service client avec des chatbots, des assistants virtuels et des interactions automatisées.
Et maintenant, depuis novembre 2022, il y a Chat-GPT dans lequel Microsoft veut investir 10 milliards d’euros. C’est un modèle de langage de grande taille (LLM) qui prédit le mot suivant dans un texte, imitant le langage humain. Parmi les experts en données chevronnés qui travaillent depuis des années à affiner les algorithmes et à comprendre les grandes données, le récent buzz autour de l’IA causé par ChatGPT a suscité un mélange d’excitation et de préoccupation. Deux tweets de figures de l’IA bien connues encapsulent le contraste entre les aspects positifs et négatifs.

Le côté positif : « Ça va être glorieux »
Le tweet 1 est de Marc Andreessen, capital-risqueur bien connu, en janvier 2023 : « Nous sommes juste en train d’entrer dans un âge d’or de l’écriture, de l’art, de la musique, des logiciels et de la science alimentés par l’IA. Ça va être glorieux. Historiquement mondial. » L’excitation autour de l’IA est certainement justifiée dans le secteur des assurances, car elle a introduit de nouvelles possibilités qui semblaient autrefois impensables. L’IA promet une efficacité et une précision à un niveau nouveau. L’IA peut analyser de très grandes quantités de données et créer des perspectives sur l’évaluation des risques, la gestion des réclamations ou le service client que les évaluateurs humains ne pourraient jamais atteindre. Les avantages de l’IA sont tout simplement trop attrayants pour être ignorés, c’est pourquoi de plus en plus de décideurs mettent l’IA à l’ordre du jour. Elle permet aux compagnies d’assurance de gagner des avantages concurrentiels, d’améliorer l’expérience client et de réduire les coûts simultanément. En bref, une opportunité unique de diriger en tant que « maîtres des données » dans une industrie traditionnelle soumise à des changements.

Le côté négatif : « Une impression trompeuse de grandeur »
Le contraste avec le tweet 2 est frappant : « ChatGPT est incroyablement limité mais assez bon dans certaines choses pour créer une impression trompeuse de grandeur. C’est une erreur de s’appuyer dessus pour quoi que ce soit d’important en ce moment. (…) » L’auteur de ce tweet est Sam Altman, le fondateur et CEO de OpenAI lui-même. Avez-vous déjà entendu un CEO dire de son propre produit qu’il est encore bon pour créer une fausse grandeur ? La préoccupation est justifiée car la persuasion est en effet le principal facteur permettant à de fausses informations de faire leur travail dévastateur. La persuasion de ChatGPT est surestimée à cet égard. Cela signifie que toute personne impliquée professionnellement dans la vérité doit être vigilante, car poser les bonnes questions peut produire des absurdités très crédibles et convaincantes. Selon le professeur Terrence Sejnowski, auteur de The Deep Learning Revolution, les modèles de langage reflètent également l’intelligence et la diversité de leur intervieweur. Par exemple, Sejnowski a demandé à ChatGPT-3 : « Quel est le record du monde de la traversée de la Manche à pied ? » à quoi GPT-3 a répondu : « Le record du monde de la traversée de la Manche à pied est de 18 heures et 33 minutes. » La vérité qu’on ne peut pas traverser la Manche à pied a été facilement détournée par GPT-3 pour refléter la question de Sejnowski. La cohérence de la réponse de GPT-3 dépend entièrement de la cohérence de la question qu’elle reçoit. Soudainement, pour GPT-3, il est possible de marcher sur l’eau simplement parce que l’intervieweur a utilisé le verbe « marcher » au lieu de « nager ».

Il y a une analogie frappante qui illustre les inconvénients de l’IA : le perroquet stochastique. Stochastique signifie « aléatoire ou basé sur le hasard », faisant référence à des processus où les résultats ne sont pas entièrement prévisibles. L’IA, en particulier sous la forme de l’IA générative comme Chat-GPT, fonctionne essentiellement comme un mécanisme répétitif sans compréhension complète. Tout comme un perroquet peut répéter des mots sans connaître leur signification, l’IA peut reproduire des motifs (textuels) sans pouvoir comprendre la logique sous-jacente. Cela est préoccupant, surtout lorsque nous pensons à des décisions ayant des conséquences importantes telles que l’acceptation des risques ou l’évaluation des réclamations d’assurance. Si l’IA est utilisée pour prendre ces décisions sans une compréhension approfondie du contexte et sans intervention humaine, le soi-disant humain dans la boucle, des erreurs involontaires peuvent survenir. Cette imprévisibilité inhérente peut entraîner une insatisfaction des clients, des problèmes éthiques et finalement saper la confiance dans l’industrie de l’assurance. Ajoutez à cela la complexité de la mise en œuvre de l’IA et les préoccupations concernant la confidentialité et la sécurité, et il est compréhensible que certains décideurs dans les compagnies d’assurance hésitent à investir pleinement dans l’IA.

Le rôle important de l’IA spécifique
Le débat intense sur l’IA semble se concentrer principalement sur l’IA générative, dont ChatGPT est l’exemple le plus connu. L’IA générative fait référence à un sous-ensemble de l’intelligence artificielle qui utilise des algorithmes pour générer des résultats nouveaux, originaux et créatifs. La distinction entre l’IA générative et l’IA spécifique devient de plus en plus pertinente dans le secteur des assurances. L’IA spécifique se concentre sur la résolution de problèmes spécifiques ou l’exécution de tâches spécifiques. La principale application de l’IA spécifique dans l’industrie de l’assurance est depuis des années l’analyse prédictive. Avec des données historiques, des prédictions très précises peuvent être faites de manière fiable et mathématique, par exemple pour l’évaluation des risques, le développement des ratios combinés, les montants des réclamations ou le service client le plus efficace. La fiabilité et la précision sont typiquement des qualités demandées dans l’industrie de l’assurance. L’IA spécifique n’est pas non plus une « mode » et est de plus en plus appliquée avec succès au cours des 10 dernières années, notamment par les « maîtres des données » du marché. Les maîtres des données sont des entreprises qui optimisent l’utilisation de leurs ressources de données, entre autres grâce à l’utilisation de la science des données et de l’IA.

Boîte de faits :
Pour les assureurs, les données sont la clé du succès [Cap Gemini]
Selon une étude récente de Cap Gemini réalisée auprès de 204 assureurs dans le monde, seulement 18 % des assureurs peuvent se qualifier de « maîtres des données ». Plus de 70 % des assureurs sont encore parmi les « retardataires en données ». Les différences sont frappantes : le chiffre d’affaires par ETP est de 175 % plus élevé pour un maître des données et ils sont 63 % plus rentables que les retardataires en données. Les initiatives des maîtres des données autour de la science des données et de l’IA conduisent à un NPS plus élevé, un ratio combiné amélioré et une augmentation des revenus de primes dans plus de 95 % des cas. En plus de la fiabilité et de la précision, un avantage significatif des systèmes d’IA spécifiques est qu’ils permettent aux développeurs de contrôler et d’ajuster avec précision la transparence et l’équité des algorithmes. De cette manière, les applications peuvent être conçues et calibrées pour répondre aux normes éthiques des données établies par l’Association des Assureurs Néerlandais. Pour l’instant, même selon le CEO de ChatGPT lui-même, cela est très difficile pour les applications d’IA générative.

Trouver l’équilibre : Crucial pour le secteur des assurances
En fin de compte, la question est : pouvons-nous faire confiance à l’IA ou non (encore) ? Une définition bien connue de la confiance est : « la croyance en un bon nom et en l’honnêteté ». L’Association des Assureurs Néerlandais a établi des cadres éthiques pour les données afin de garantir que les applications d’assurance basées sur les données soient équitables et respectueuses. Adhérer à ces cadres devrait garantir que l’utilisation de l’IA ne conduise pas à la discrimination, par exemple. Personne ne veut un deuxième « scandale des avantages » qui pourrait gravement nuire à la bonne réputation de la compagnie d’assurance. Par conséquent, la question de confiance reste actuelle tant pour les clients que pour les prestataires de services financiers eux-mêmes. Nous devons et pouvons toujours faire confiance à nos conseillers pour fournir des conseils impartiaux et professionnels. Les compagnies d’assurance atteignent ainsi les limites de leur croissance. Nous devons travailler ensemble pour garantir que l’IA serve non seulement nos objectifs économiques mais aussi nos normes éthiques. C’est pourquoi la communauté des experts en données doit travailler ensemble pour maximiser les avantages de l’IA et minimiser les risques. Si nous nous concentrons sur les aspects positifs de l’IA, tout en surveillant de près les aspects négatifs, nous pouvons trouver l’équilibre qui permettra à l’industrie de l’assurance de prospérer. En fin de compte, nous pouvons alors véritablement affirmer que l’IA est plus qu’un perroquet stochastique. La vérité est que les compagnies d’assurance qui cherchent à l’adopter pleinement doivent le faire de manière responsable. En trouvant un équilibre entre les aspects positifs et négatifs, les compagnies d’assurance peuvent utiliser l’IA pour offrir une valeur ajoutée aux clients tout en respectant les normes éthiques les plus élevées. Au final, l’IA dans l’assurance est en effet plus qu’un perroquet stochastique, mais son déploiement nécessite prudence, compétence et responsabilité.

Post Tags :

Share :

Retour en haut