La IA es Más que un Loro Estocástico

El auge de la inteligencia artificial (IA) parece haber alcanzado el sector de seguros a través del entusiasmo por ChatGPT, y la discusión sobre sus efectos está lejos de ser blanco y negro. La pregunta es cómo podemos encontrar un equilibrio entre los aspectos positivos y negativos del auge de la IA, ya que este equilibrio es crucial en ningún otro sector tanto como en el mundo de los seguros.

AUTOR – JACK VOS – ONESURANCE.NL

Para empezar, el concepto de inteligencia artificial ciertamente no es nuevo. El término en sí se utilizó por primera vez durante el «Dartmouth Workshop» en 1956, donde científicos se reunieron para discutir cómo las máquinas podrían exhibir un comportamiento inteligente. Desde entonces, podemos distinguir tres fases principales en el desarrollo de la IA dentro del panorama de los seguros:

  • Sistemas basados en reglas (1960-1990) En los primeros años de la IA, estos sistemas solo usaban reglas introducidas manualmente para tomar decisiones simples basadas en entradas específicas. Por ejemplo, la aceptación basada en reglas predefinidas simples. Estos sistemas todavía eran demasiado limitados para tomar decisiones complejas.

  • Modelado estadístico y análisis de datos (1990-2010) A medida que las computadoras se volvieron más rápidas y el software de análisis más inteligente, se desplegaron modelos de aprendizaje automático para descubrir patrones y tendencias en grandes cantidades de datos de seguros. Esto fue particularmente útil en la evaluación de riesgos y la detección de fraudes.

  • Aprendizaje automático y análisis predictivo (2010-presente) Con la llegada de técnicas más avanzadas de aprendizaje automático, como redes neuronales y aprendizaje profundo, se ha vuelto posible realizar análisis aún más complejos. Esto incluye predecir el comportamiento del cliente, determinar tarifas basadas en características individuales y detectar actividades fraudulentas con mayor precisión. La IA también se utiliza para mejorar el servicio al cliente con chatbots, asistentes virtuales e interacciones automatizadas.

Y ahora, desde noviembre de 2022, existe Chat-GPT, en el que Microsoft quiere invertir €10 mil millones. Este es un Modelo de Lenguaje Grande (LLM) que predice la siguiente palabra en un texto, imitando el lenguaje humano. Entre los expertos en datos que han trabajado durante años refinando algoritmos y comprendiendo grandes datos, el reciente entusiasmo por la IA causado por ChatGPT ha suscitado una mezcla de emoción y preocupación. Dos tuits de figuras prominentes en IA encapsulan el contraste entre los aspectos positivos y negativos.

  • El lado positivo: «Va a ser glorioso» El tuit 1 es del conocido capitalista de riesgo Marc Andreessen, en enero de 2023: «Estamos entrando en una edad de oro de escritura, arte, música, software y ciencia impulsada por la IA. Va a ser glorioso. Histórico mundial.» El entusiasmo por la IA ciertamente está justificado en el sector de seguros, ya que ha introducido nuevas posibilidades que antes parecían impensables. La IA promete eficiencia y precisión a un nuevo nivel. La IA puede analizar grandes cantidades de datos y crear conocimientos en evaluación de riesgos, manejo de reclamaciones o servicio al cliente que los evaluadores humanos nunca podrían lograr. Los beneficios de la IA son simplemente demasiado atractivos para ignorar, por lo que cada vez más tomadores de decisiones están poniendo la IA en la agenda. Permite a las compañías de seguros obtener ventajas competitivas, mejorar la experiencia del cliente y reducir costos simultáneamente. En resumen, una oportunidad única para liderar como un ‘Maestro de Datos’ en una industria tradicional sujeta a cambios.

  • El lado negativo: «una impresión engañosa de grandeza» El contraste con el tuit 2 es marcado: «ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una impresión engañosa de grandeza. Es un error confiar en él para algo importante en este momento. (…)» El autor de este tuit es Sam Altman, el fundador y CEO de ChatGPT de OpenAI. ¿Alguna vez has oído a un CEO decir sobre su propio producto que aún es bueno para crear una grandeza fuera de lugar? La preocupación está justificada porque la persuasión es, de hecho, el factor principal que permite que la información falsa haga su trabajo devastador. La persuasión de ChatGPT está sobrevalorada en este sentido. Esto significa que cualquier persona profesionalmente involucrada con la verdad debe estar alerta, ya que hacer las preguntas correctas puede producir tonterías altamente creíbles y persuasivas. Según el profesor Terrence Sejnowski, autor de The Deep Learning Revolution, los modelos de lenguaje también reflejan la inteligencia y diversidad de su entrevistador. Sejnowski, por ejemplo, preguntó a ChatGPT-3: «¿Cuál es el récord mundial de caminar a través del Canal de la Mancha?» a lo que GPT-3 respondió: «El récord mundial de caminar a través del Canal de la Mancha es de 18 horas y 33 minutos.» La verdad, que no se puede caminar a través del Canal de la Mancha, fue fácilmente doblada por GPT-3 para reflejar la pregunta de Sejnowski. La coherencia de la respuesta de GPT-3 depende totalmente de la coherencia de la pregunta que recibe. De repente, para GPT-3, es posible caminar sobre el agua, todo porque el entrevistador usó el verbo ‘caminar’ en lugar de ‘nadar.’

Hay una analogía llamativa que ilustra los inconvenientes de la IA: el loro estocástico. Estocástico significa ‘aleatorio o basado en el azar,’ refiriéndose a procesos donde los resultados no son completamente predecibles. La IA, especialmente en la forma de IA Generativa como Chat-GPT, esencialmente funciona como un mecanismo de repetición sin comprensión completa. Al igual que un loro puede repetir palabras sin conocer su significado, la IA puede reproducir patrones (textuales) sin la capacidad de comprender la lógica subyacente. Esto es preocupante, especialmente cuando pensamos en decisiones con consecuencias significativas, como la aceptación de riesgos o la evaluación de reclamaciones de seguros. Si se utiliza la IA para tomar estas decisiones sin una comprensión profunda del contexto y sin la intervención humana, el llamado humano en el bucle, pueden ocurrir errores no intencionados. Esta imprevisibilidad inherente puede llevar a la insatisfacción del cliente, problemas éticos y, en última instancia, socavar la confianza en la industria de seguros. A esto se suma la complejidad de la implementación de la IA y las preocupaciones sobre la privacidad y seguridad, y es comprensible que algunos tomadores de decisiones en las compañías de seguros sean reacios a invertir completamente en IA.

El Papel Importante de la IA Específica El intenso debate sobre la IA parece centrarse principalmente en la IA Generativa, de la cual ChatGPT es el ejemplo más conocido. La IA Generativa se refiere a un subconjunto de la inteligencia artificial que utiliza algoritmos para generar resultados nuevos, originales y creativos. La distinción entre la IA Generativa y la IA Específica se está volviendo cada vez más relevante en el sector de seguros. La IA Específica se enfoca en resolver problemas específicos o realizar tareas específicas. La principal aplicación de la IA Específica en la industria de seguros ha sido el análisis predictivo durante años. Con datos históricos, se pueden hacer predicciones muy precisas de manera confiable y matemática, por ejemplo, para la evaluación de riesgos, el desarrollo de la relación combinada, los montos de las reclamaciones o el servicio al cliente más efectivo. La fiabilidad y la precisión son cualidades típicamente demandadas en la industria de seguros. La IA Específica tampoco es una ‘moda’ y se ha aplicado cada vez más con éxito durante los últimos 10 años, particularmente por los ‘Maestros de Datos’ en el mercado. Los Maestros de Datos son empresas que utilizan de manera óptima sus datos de recursos, entre otras cosas, mediante el uso de la ciencia de datos y la IA.

Para los aseguradores, los datos son la clave del éxito [Cap Gemini] Según un estudio reciente de Cap Gemini realizado entre 204 aseguradores en todo el mundo, solo el 18% de los aseguradores pueden llamarse ‘Maestros de Datos.’ Más del 70% de los aseguradores todavía se encuentran entre los ‘Rezagados de Datos.’ Las diferencias son notables: los ingresos por ETP son un 175% más altos para un Maestro de Datos, y son un 63% más rentables que los Rezagados de Datos. Las iniciativas de los Maestros de Datos en torno a la ciencia de datos y la IA conducen a un NPS más alto, una relación combinada mejorada y un aumento en los ingresos por primas en más del 95% de los casos. Además de la fiabilidad y la precisión, una ventaja significativa de los sistemas de IA Específica es que permite a los desarrolladores controlar y ajustar con precisión la transparencia y equidad de los algoritmos. De esta manera, se pueden diseñar y calibrar aplicaciones para cumplir con los estándares éticos de datos establecidos por la Asociación Holandesa de Aseguradores. Por ahora, incluso según el CEO de ChatGPT, esto es muy desafiante para las aplicaciones de IA Generativa.

Encontrar el Equilibrio: Crucial para el Sector de Seguros En resumen, la pregunta es: ¿podemos confiar en la IA o no (aún)? Una definición conocida de confianza es: «la creencia en un buen nombre y honestidad.» La Asociación Holandesa de Aseguradores ha establecido marcos éticos de datos para garantizar que las aplicaciones de seguros impulsadas por datos sean justas y respetuosas. Adherirse a estos marcos debería asegurar que el uso de la IA no conduzca a la discriminación, por ejemplo. Nadie quiere un segundo ‘escándalo de beneficios’ que pueda dañar gravemente el buen nombre de la compañía de seguros. Esto plantea un desafío adicional, especialmente porque la IA puede descubrir patrones complejos que son invisibles a simple vista. La capacidad de explicar estos patrones y mantener los estándares éticos es esencial para mantener la confianza en el sector. Aquí reside una tarea importante y una responsabilidad para los expertos en datos experimentados y los estrategas de IA en nuestra industria. Con conocimientos y experiencia relevantes en IA y una comprensión profunda del contexto de los seguros, pueden mantener el equilibrio entre la innovación tecnológica y las consideraciones éticas. No solo debemos mirar lo que la IA puede hacer por nosotros, sino también lo que los expertos humanos pueden contribuir a un futuro sostenible y equilibrado. La IA no se trata solo de innovación y más eficiencia, sino también de mantener el factor humano y la confianza que es tan crucial en nuestra industria. Encontrar este equilibrio es un desafío, pero también una obligación que debemos tomar en serio.

Comience con la Lista de Verificación KOAT de SIVI KOAT significa Calidad en Aplicaciones de Asesoramiento y Transacción No Tripuladas. ‘Aplicaciones no tripuladas’ es un término agradable para tecnología inteligente que puede reemplazar tareas, no personas. El uso creciente de tales aplicaciones automatizadas en el sector financiero, combinado con nuevas regulaciones (europeas), hace que el control de calidad de las aplicaciones no tripuladas sea cada vez más importante. SIVI ha desarrollado una herramienta con la Plataforma de Aplicaciones No Tripuladas, que incluye una base de conocimientos y una lista de verificación, para todas las partes que desarrollan y usan aplicaciones no tripuladas. Con una representación amplia en el Comité Asesor de Aplicaciones No Tripuladas de Calidad, el sector muestra su compromiso con esta plataforma. Visite www.sivi.org.

Post Tags :

Share :

Scroll al inicio