La Inteligencia Artificial Generativa (IA) está transformando el sector de los seguros, permitiendo la automatización de procesos, la personalización de servicios y la gestión de riesgos a gran escala. Sin embargo, esta tecnología también introduce desafíos críticos en términos de ética, justicia y eficiencia,
Así lo advirtió, en entrevista con El Asegurador, Ricardo Baeza Yates, director de Investigación del Instituto de Inteligencia Artificial Experiencial de Northeastern University en Silicon Valley, además de fundador y Chief Scientific Officer de Teodora AI.
Baeza Yates destacó que la IA generativa ha permitido automatizar tareas como el análisis de riesgos y la fijación de precios de pólizas, agilizando las evaluaciones y ofreciendo soluciones rápidas y personalizadas para los usuarios.
“No obstante, al utilizar algoritmos para analizar datos masivos, los sistemas pueden incluir sesgos inherentes que provocan desigualdades. Por ejemplo, ciertos sesgos en los algoritmos pueden llevar a que una persona pague una prima mayor, sin que esta decisión esté respaldada por criterios de riesgo claros o científicos.
“Esto sucede, añadió, debido a ‘ruidos’ en el sistema: decisiones inconsistentes derivadas de estereotipos o datos históricos sin una adecuada contextualización. Así, alguien puede terminar pagando más o menos de lo debido, lo cual es problemático y, en algunos casos, éticamente inaceptable”, subrayó.
El fundador de la start up chilena expresó también que los sistemas de IA generativa deben enfrentar retos éticos asociados con el uso de información incompleta o inexacta.
En la industria de seguros, se observa una tendencia a valorar a los clientes en función de promedios o patrones estadísticos en lugar de casos individuales, lo que conduce a prácticas de pseudociencia en las que se generalizan características que no necesariamente representan a la persona.
“Esto se vuelve crítico cuando, por ejemplo, un joven o un adulto mayor solicita un seguro o un préstamo, y es evaluado de manera estereotipada sin considerar su situación particular. Este tipo de categorizaciones amplían las brechas de justicia y pueden perpetuar desigualdades al basarse en datos históricos o suposiciones sobre ciertos perfiles demográficos”, indicó Baeza.
Por otra parte, los sistemas de IA generativa también enfrentan desafíos significativos, especialmente en términos de desinformación y salud mental. La capacidad de generar contenidos masivos en poco tiempo incrementa el riesgo de manipulación de la información. Otro reto es el riesgo de humanización de la IA, donde los usuarios confunden a estas herramientas con entidades conscientes.
Un ejemplo trágico fue el caso en Bélgica, en el que una persona en crisis conversó con una IA y terminó tomando una decisión fatal. “Este tipo de situaciones resaltan la importancia de educar a la sociedad para evitar que la tecnología se perciba como un reemplazo de la interacción humana y profesional en temas sensibles”, concluyó el investigador.