Eligiendo Tecnología de IA Escalable con Ética de Datos

Al implementar la Inteligencia Artificial, la ética de los datos juega un papel importante, como explicamos en este artículo. Es por eso que trabajamos en estrecha colaboración con nuestra empresa hermana Brush-AI, la primera empresa de los Países Bajos dedicada específicamente a la IA responsable.

Esta colaboración asegura que los algoritmos que diseñamos cumplan inherentemente con el Marco Ético para Aplicaciones de Datos establecido por la Asociación Holandesa de Aseguradores.

Lo vemos todos los días en la oficina: la tecnología informática moderna hace que la montaña de ‘big data’ crezca exponencialmente. Pero, ¿qué podemos hacer con estos datos actualmente sin sentido? ¿Cómo los convertimos en información utilizable que, figurativamente, nos pone en formación, permitiéndonos tomar mejores decisiones y mejorar el servicio al cliente? ¿Y cómo podemos asegurarnos de que esta toma de decisiones basada en datos se realice de manera ética y responsable?

Autores: Jack Vos (Onesurance.nl) y Max Roeters (Brush-ai.nl)

El Modelo DIKW

La sabiduría es el arte de tomar las decisiones correctas y actuar correctamente en todas las circunstancias. Una cosa está clara: los ciclos de tecnologías cada vez más nuevas con más y más información disponible nos confunden más de lo que contribuyen al conocimiento y la sabiduría. Esto ya lo señaló el escritor T.S. Eliot en 1934. En un poema inspirador, escribe: «¿Dónde está la Vida que hemos perdido en vivir? ¿Dónde está la sabiduría que hemos perdido en el conocimiento? ¿Dónde está el conocimiento que hemos perdido en la información? Los ciclos del cielo en veinte siglos nos llevan más lejos de Dios y más cerca del polvo.»

El texto de Eliot es considerado por muchos como la base del conocido modelo DIKW en el mundo de las TIC. El modelo responde a la pregunta de por qué queremos usar datos e información: para permitir que los humanos tomen mejores decisiones.

Distinguimos cuatro niveles:

  • Datos: Hechos y cifras simples. Esta es la enorme montaña de big data, como todos los cambios de póliza almacenados. Sin análisis, no podemos hacer nada con ellos.
  • Información: Datos agrupados, organizados y preferiblemente visualizados. Esto nos permite ver lo que ha sucedido y, por ejemplo, usarlo como referencia. ¿Cuántas pólizas se cancelaron en 2022 en comparación con 2021?
  • Conocimiento: Información de la cual se pueden derivar patrones subyacentes, dados en un contexto. Esto responde a la pregunta de por qué sucedió algo. ¿Por qué los clientes cancelaron sus pólizas? ¿Por qué estaban insatisfechos? ¿Fue debido al aumento de primas? ¿Manejo deficiente de reclamaciones?
  • Sabiduría: Idealmente, usamos el conocimiento reunido para tomar mejores decisiones ahora y en el futuro que beneficien a todos. ¿Podemos predecir quién cancelará una póliza basado en patrones pasados? Y más importante: ¿podemos predecir cómo prevenir la insatisfacción del cliente?

Los cuatro niveles en el modelo DIKW correlacionan con los cuatro niveles de madurez de datos en los que una organización puede estar, a saber:

  • Nivel descriptivo (organizar datos en información)
  • Nivel diagnóstico (obtener conocimiento extrayendo patrones de la información)
  • Nivel predictivo (usar el conocimiento para predecir lo que sucederá)
  • Nivel prescriptivo (prescribir cómo hacer que suceda o prevenirlo).

La madurez de datos indica hasta qué punto una empresa utiliza efectivamente sus fuentes de datos para aumentar la productividad. En los niveles más altos, no se puede evitar usar tecnología de inteligencia artificial (IA). Si aspiramos a la sabiduría, queremos usar esta tecnología correctamente, y la ética juega un papel importante.

Cómo Pueden Usar los Asesores la IA

Muchos aseguradores, suscriptores e intermediarios luchan con la cuestión de cómo seguir atendiendo óptimamente a decenas de miles de clientes. Esto solo se puede hacer de manera escalable usando datos y tecnología de IA de manera inteligente, ya que desplegar más asesores es simplemente demasiado costoso. La IA utiliza algoritmos autoaprendientes, esencialmente fórmulas matemáticas, que pueden analizar millones de puntos de datos en busca de correlaciones. Un software complejo luego deriva patrones predictivos que indican si algo funciona bien o no. Por ejemplo, se puede hacer una predicción fundamentada para cada cliente sobre qué acciones en el recorrido del cliente llevan a la mayor satisfacción del cliente y al mayor retorno para la oficina. Este conocimiento permite a los asesores trabajar de manera más efectiva y utilizar su valioso tiempo de la manera más eficiente posible.

Algunas personas desconfían de la tecnología de IA porque creen que opera en una ‘caja negra’. Esto significa que, aunque los flujos de información entrante y saliente del algoritmo son visibles, los mecanismos que conectan estos dos flujos no lo son. Desde la ambición de aspirar a la sabiduría, queremos conocer las propiedades de estos mecanismos para asegurar la interpretabilidad de la IA. Esto es crucial cuando se trabaja con datos personales.

IA Responsable y el Marco Ético

La idea detrás de la metodología llamada IA responsable es desarrollar y configurar el algoritmo desde cero para que el usuario siempre pueda tomar una decisión informada sobre si su uso es éticamente responsable dado el contexto. El marco ético para la toma de decisiones basada en datos, establecido por la Asociación Holandesa de Aseguradores, se alinea bien con esto. Este marco establece que se deben observar siete requisitos para el uso ético de la IA. Los estándares exactos se pueden encontrar en el marco ético, y aquí hay una breve explicación:

  • Autonomía y Control Humano: La IA debe ser un medio para una determinada solución, no el objetivo en sí mismo. Esto significa que, si se puede usar una tecnología menos complicada para lograr el mismo resultado, se prefiere. También se debe prestar suficiente atención a los riesgos y posibles conflictos de intereses.
  • Robustez Técnica y Seguridad: Los datos de los clientes deben estar lógicamente protegidos y se debe garantizar la calidad de los datos. Los datos de clientes desactualizados pueden llevar inadvertidamente a ideas incorrectas.
  • Privacidad y Gobernanza de Datos: Asegurar la privacidad es primordial cuando se trabaja con datos. La supervisión humana es crucial, ya que ciertos sesgos (prejuicios) inevitablemente pueden entrar en el modelo. Abordar esto de manera atenta y preventiva ayuda a evitar errores innecesarios.
  • Transparencia: Especialmente al tomar decisiones que pueden tener un impacto significativo en la vida de una persona, como rechazar una reclamación, es importante estructurar el modelo de IA de manera que siempre sea posible explicar a los clientes cómo se tomó una decisión.
  • Diversidad, No Discriminación y Justicia: Es importante reconocer que, al igual que los humanos, es casi imposible crear un modelo de IA completamente libre de sesgos. Al prestar especial atención a los grupos subrepresentados o vulnerables, podemos prevenir que el modelo los discrimine, consciente o inconscientemente.
  • Bienestar Social: La IA debe ayudar a garantizar que la mayor cantidad posible de clientes siga siendo asegurables, y aquellos que son difíciles de asegurar o corren el riesgo de volverse inasegurables deben ser informados sobre formas de mitigar o cubrir riesgos. Los modelos interpretables y transparentes pueden informar a los clientes más precisamente, como indicando los atributos del cliente en los que se basa una decisión.
  • Responsabilidad: La interacción segura y receptiva sobre los posibles riesgos de la IA entre el asegurador, sus empleados y sus clientes es esencial. Por lo tanto, se deben considerar mecanismos que permitan una evaluación continua de la tecnología durante su desarrollo.

Tecnología y Ética: El Humano en el Bucle

Lo que un humano no puede hacer, la tecnología de IA puede: convertir enormes cantidades de datos en información utilizable y reconocer patrones predictivos dentro de ella. Esto permite a las compañías de seguros desplegar asesores de manera más efectiva, especialmente si desean atender a decenas o incluso cientos de miles de clientes de manera escalable. Al aspirar a la sabiduría, queremos mantener al ‘humano en el bucle’. El marco ético proporciona pautas que ayudan a garantizar la calidad de un modelo de IA. Esto no es una amenaza para la IA; por el contrario, se utilizará y aceptará mucho más fácilmente, especialmente si se utiliza el método de IA responsable. El asesor siempre juega un papel importante siempre y cuando aporte cualidades interpersonales como empatía, amabilidad y confianza en el momento adecuado.

Entrevista con Indra Frishert, Director de Marketing y Ventas / Copropietario de Dazure

Para aquellos que aún no te conocen, ¿qué es Dazure? Dazure es una agencia de suscripción que crea productos de seguros innovadores que se adaptan al mundo actual: productos honestos que también queremos ofrecer a nuestros seres queridos.

¿Por qué empezaste con la IA? Teníamos curiosidad por saber cómo podríamos mejorar nuestro servicio a los clientes utilizando más todos los datos que hemos acumulado durante los últimos 14 años. Resultó que los datos eran de buena calidad. En poco tiempo, recibimos muchas ideas y oportunidades utilizables. ¡Esto nos sorprendió positivamente!

¿Qué ventajas ves en la IA? La gran ventaja es el efecto de autoaprendizaje de la IA. Esto nos permite hacer grandes avances en el recorrido del cliente mientras mantenemos al ‘humano en el bucle’ para asegurarnos de que estos avances se tomen con cuidado. De esta manera, podemos mejorar, acelerar y simplificar nuestros procesos para el cliente. Por ejemplo, al considerar el proceso de aceptación para seguros de vida, hay una gran dependencia de los profesionales médicos (como los médicos generales). Esto no satisface los deseos del cliente, ya que quieren una póliza de inmediato, y también sobrecarga al mundo médico, que tiene mejores cosas que hacer que evaluar riesgos de seguros. Con la IA, podemos predecir qué pequeños exámenes médicos (SME) son innecesarios. La IA es una herramienta efectiva, siempre que se use correctamente.

¿Por qué es tan importante la IA responsable? La IA responsable es importante para nosotros porque el big data en sí no es el peligro, sino cómo nosotros, como personas (empresarios), manejamos los datos. Aplicamos el ‘patrón familiar’ a todos nuestros productos. Este es el estándar que implementamos en todos los frentes y que encontramos muy importante. Si no ofrecerías algo a tu propia familia, simplemente no deberías hacerlo. Aplicando este criterio también al aspecto de la IA, creemos que creas una empresa que realmente trabaja en una relación a largo plazo con sus clientes.

Post Tags :

Share :

Scroll al inicio