Choisir une technologie IA évolutive avec une éthique des données

Lors du déploiement de l’intelligence artificielle, l’éthique des données joue un rôle majeur, comme nous l’expliquons dans cet article. C’est pourquoi nous travaillons en étroite collaboration avec notre société sœur Brush-AI, la première entreprise néerlandaise entièrement dédiée à l’IA responsable.

Cette collaboration garantit que les algorithmes que nous concevons respectent intrinsèquement le Cadre Éthique pour les Applications de Données établi par l’Association Néerlandaise des Assureurs.

Nous le constatons tous les jours au bureau : la technologie informatique moderne fait croître de manière exponentielle la montagne de « big data ». Mais que pouvons-nous faire avec ces données actuellement sans signification ? Comment les transformons-nous en informations utilisables qui nous mettent figurativement en formation, nous permettant de prendre de meilleures décisions et d’améliorer le service client ? Et comment pouvons-nous nous assurer que cette prise de décision basée sur les données se fait de manière éthique et responsable ?

Auteurs : Jack Vos (Onesurance.nl) et Max Roeters (Brush-ai.nl)

Le Modèle DIKW

La sagesse est l’art de prendre les bonnes décisions et d’agir correctement dans toutes les circonstances. Une chose est claire : les cycles de technologies de plus en plus nouvelles avec de plus en plus d’informations disponibles nous confondent plus qu’ils ne contribuent à la connaissance et à la sagesse. C’était déjà noté par l’écrivain T.S. Eliot en 1934. Dans un poème inspirant, il écrit : « Où est la Vie que nous avons perdue en vivant ? Où est la sagesse que nous avons perdue dans la connaissance ? Où est la connaissance que nous avons perdue dans l’information ? Les cycles du ciel en vingt siècles Nous éloignent de Dieu et nous rapprochent de la Poussière. »

Le texte d’Eliot est considéré par beaucoup comme la base du célèbre modèle DIKW dans le monde de l’ICT. Le modèle répond à la question de pourquoi nous voulons utiliser les données et les informations : permettre aux humains de prendre de meilleures décisions.

Nous distinguons quatre niveaux :

Données : Faits et chiffres simples. C’est l’immense montagne de big data, comme tous les changements de politique stockés. Sans analyse, nous ne pouvons rien en faire. Information : Données regroupées, organisées et de préférence visualisées. Cela nous permet de voir ce qui s’est passé et, par exemple, de l’utiliser comme référence. Combien de polices ont été annulées en 2022 par rapport à 2021 ? Connaissance : Informations à partir desquelles des modèles sous-jacents peuvent être dérivés, étant donné le contexte. Cela répond à la question de pourquoi quelque chose s’est produit. Pourquoi les clients ont-ils annulé leurs polices ? Pourquoi étaient-ils mécontents ? Était-ce dû à des augmentations de prime ? Une mauvaise gestion des réclamations ? Sagesse : Idéalement, nous utilisons la connaissance acquise pour prendre de meilleures décisions maintenant et à l’avenir qui profitent à tous. Peut-être pouvons-nous prédire qui annulera une police en fonction des modèles passés ? Et surtout : pouvons-nous prédire comment prévenir l’insatisfaction des clients ?

Les quatre niveaux du modèle DIKW correspondent aux quatre niveaux de maturité des données dans lesquels une organisation peut se trouver, à savoir :

Niveau descriptif (organisation des données en informations) Niveau diagnostique (acquisition de connaissances en extrayant des modèles des informations) Niveau prédictif (utilisation des connaissances pour prédire ce qui va se passer) Niveau prescriptif (prescrire comment le faire se produire ou l’empêcher).

La maturité des données indique dans quelle mesure une entreprise utilise efficacement ses sources de données pour augmenter sa productivité. Aux niveaux les plus élevés, il est impossible d’éviter d’utiliser la technologie de l’intelligence artificielle (IA). Si nous aspirons à la sagesse, nous voulons utiliser correctement cette technologie, et l’éthique joue un rôle important.

Comment les Conseillers Peuvent Utiliser l’IA

De nombreux assureurs, souscripteurs et intermédiaires se demandent comment continuer à servir de manière optimale des dizaines de milliers de clients. Cela ne peut se faire de manière évolutive qu’en utilisant intelligemment les données et la technologie de l’IA, car le déploiement de plus de conseillers est tout simplement trop coûteux. L’IA utilise des algorithmes auto-apprenants – essentiellement des formules mathématiques – qui peuvent analyser des millions de points de données pour des corrélations. Un logiciel complexe déduit ensuite des modèles prédictifs indiquant si quelque chose fonctionne bien ou non. Par exemple, une prédiction fondée peut être faite pour chaque client sur les actions dans le parcours client qui conduisent à la plus grande satisfaction client et au plus grand retour pour le bureau. Cette connaissance permet aux conseillers de travailler de manière plus efficace et d’utiliser leur temps précieux de la manière la plus efficiente possible.

Certains se méfient de la technologie de l’IA parce qu’ils pensent qu’elle fonctionne dans une ‘boîte noire’. Cela signifie que bien que les flux d’informations entrants et sortants de l’algorithme soient visibles, les mécanismes reliant ces deux flux ne le sont pas. De l’ambition de tendre vers la sagesse, nous voulons connaître les propriétés de ces mécanismes pour garantir l’interprétabilité de l’IA. C’est crucial lors du travail avec des données personnelles.

IA Responsable et Cadre Éthique

L’idée derrière la méthodologie appelée IA responsable est de développer et de mettre en place l’algorithme à partir de zéro afin que l’utilisateur puisse toujours prendre une décision éclairée sur le caractère éthiquement responsable de son utilisation compte tenu du contexte. Le cadre éthique pour la prise de décision basée sur les données, établi par l’Association Néerlandaise des Assureurs, s’aligne bien avec cela. Ce cadre stipule que sept exigences doivent être observées pour l’utilisation éthique de l’IA. Les normes exactes peuvent être trouvées dans le cadre éthique, et voici une brève explication :

Autonomie Humaine et Contrôle L’IA doit être un moyen d’atteindre une certaine solution, et non pas le but en soi. Cela signifie que si une technologie moins compliquée peut être utilisée pour obtenir le même résultat, elle est préférée. Une attention suffisante doit également être accordée aux risques et aux intérêts conflictuels potentiels. Robustesse Technique et Sécurité Les données client doivent logiquement être protégées, et la qualité des données doit être assurée. Des données client obsolètes peuvent entraîner involontairement des insights incorrects. Vie Privée et Gouvernance des Données Assurer la vie privée est primordial lors du travail avec des données. La surveillance humaine est cruciale, car certains biais (préjugés) peuvent inévitablement entrer dans le modèle. Aborder cela attentivement et préventivement aide à éviter les erreurs inutiles. Transparence Surtout lors de la prise de décisions pouvant avoir un impact significatif sur la vie d’une personne – comme le rejet d’une réclamation – il est important de structurer le modèle IA de manière à ce qu’il soit toujours possible d’expliquer aux clients comment une décision a été prise. Diversité, Non-Discrimination et Équité Il est important de reconnaître que, comme les humains, il est presque impossible de créer un modèle IA totalement exempt de biais. En accordant une attention particulière aux groupes sous-représentés ou vulnérables, nous pouvons éviter que le modèle ne les discrimine, consciemment ou inconsciemment. Bien-Être Sociétal L’IA devrait contribuer à faire en sorte que le plus grand nombre possible de clients restent assurables, et ceux qui sont difficiles à assurer ou risquent de devenir non assurables devraient être informés des moyens de réduire ou de couvrir les risques. Les modèles interprétables et transparents peuvent informer les clients de manière plus précise, par exemple en indiquant les attributs client sur lesquels une décision est basée. Responsabilité Une interaction sûre et réceptive concernant les risques potentiels de l’IA entre l’assureur, ses employés et ses clients est essentielle. Par conséquent, des mécanismes permettant une évaluation continue de la technologie devraient être envisagés pendant le développement.

Technologie et Éthique : L’Humain dans la Boucle

Ce qu’un humain ne peut pas faire, la technologie de l’IA peut le faire : convertir d’énormes quantités de données en informations utilisables et reconnaître des modèles prédictifs au sein de celles-ci. Cela permet aux compagnies d’assurance de déployer les conseillers de manière plus efficace, surtout si elles veulent servir des dizaines ou même des centaines de milliers de clients de manière évolutive. En aspirant à la sagesse, nous voulons maintenir l’humain dans la boucle. Le cadre éthique fournit des lignes directrices qui aident à garantir la qualité d’un modèle IA. Ce n’est pas une menace pour l’IA ; au contraire, elle sera utilisée et acceptée beaucoup plus facilement, surtout si la méthode de l’IA responsable est utilisée. Le conseiller joue toujours un rôle important tant qu’il apporte des qualités interpersonnelles telles que l’empathie, la gentillesse et la confiance au bon moment.

Interview avec Indra Frishert, Directeur Marketing & Ventes / Co-propriétaire de Dazure

Pour ceux qui ne vous connaissent pas encore, qu’est-ce que Dazure ? Dazure est une agence de souscription qui crée des produits d’assurance innovants adaptés au monde d’aujourd’hui : des produits honnêtes que nous voulons également offrir à nos proches.

Pourquoi avez-vous commencé avec l’IA ? Nous étions curieux de savoir comment nous pourrions améliorer notre service client en faisant davantage usage de toutes les données que nous avons accumulées au cours des 14 dernières années. Les données se sont avérées être de bonne qualité. En peu de temps, nous avons reçu de nombreuses informations précieuses et des opportunités utilisables. Cela nous a agréablement surpris !

Quels avantages voyez-vous dans l’IA ? Le gros avantage est l’effet auto-apprenant de l’IA. Cela nous permet de faire de grands progrès dans le parcours client tout en gardant l’humain dans la boucle pour garantir que ces progrès sont faits avec soin. De cette manière, nous pouvons améliorer, accélérer et simplifier nos processus pour le client. Par exemple, en examinant le processus d’acceptation de l’assurance vie, il y a une forte dépendance aux professionnels de la santé (comme les médecins généralistes). Cela ne répond pas aux souhaits du client, car il veut une police immédiatement, et cela surcharge également le monde médical, qui a de meilleures choses à faire que d’évaluer les risques d’assurance. Avec l’IA, nous pouvons prédire quelles petites enquêtes médicales (SME) sont inutiles. L’IA est un outil efficace, à condition d’être utilisée correctement.

Pourquoi l’IA responsable est-elle si importante ? L’IA responsable est importante pour nous parce que les big data elles-mêmes ne sont pas le danger, mais la manière dont nous, en tant que personnes (entrepreneurs), traitons les données. Nous appliquons la « mesure familiale » à tous nos produits. C’est la norme que nous mettons en œuvre sur tous les fronts et que nous jugeons très importante. Si vous ne proposeriez pas quelque chose à votre propre famille, vous ne devriez tout simplement pas le faire. En appliquant cette mesure à l’aspect IA également, nous croyons que vous créez une entreprise qui travaille véritablement sur une relation à long terme avec ses clients.

Post Tags :

Share :

Retour en haut