Inteligencia
Artificial (IA). Visión
de la industria aseguradora europea de seguros (insurance europe)
Junio 2020
Documento
de la Industria Europea aseguradora en respuesta al Libro blanco de la Comisión Europea sobre la inteligencia artificial (IA)
En este documento destaca el potencial de transformación y de desarrollo económico de la IA para la industria y para la sociedad. Cualquier desarrollo tecnológico presenta desafíos que han de ser abordados por las instituciones y las empresas.
Constituye
una necesidad el fomento a normas suficientemente flexibles frente a principios
de regulación innecesariamente instructivos que puedan amortiguar la transición
temporal y los cambios en rápida evolución. Cualquier marco normativo sobre IA
debe promover y fomentar necesariamente la innovación conforme a los valores y
principios europeos.
El
uso de la IA en el sector de Seguros
La
IA permitirá a la industria aseguradora a predecir el riesgo con
mayor precisión, personalizar los productos y utilizar una previsión
mejorada para implementar rápidamente nuevos productos en respuesta a los
riesgos emergentes. Entre las utilidades potenciales que, en particular, se
destaca es la mejora de la suscripción de los riesgos y su monitorización en
tiempo real, así como la personalización de productos.
La aplicación práctica en
relación con la eficiencia de su uso dependerá en gran medida de la disponibilidad
y la calidad de los datos con la utilización de técnicas y sistemas de
aprendizaje automático (big data&machine learning). La IA permite que
mediante el uso de esta variedad de datos pueda generarse en tiempo real
pólizas de seguro y de reclamaciones instantáneas.
El uso de
la IA para los consumidores
Los consumidores pretenden
nuevos productos y servicios que respondan a sus necesidades, con la
posibilidad de interactuar con las aseguradoras casi a diario.
Los chatbots puestos a
disposición por las aseguradoras permitirán ayudar, simplificar y mejorar la
comunicación y, a su vez, obtener datos y conocimientos de la cliente, siempre con
su consentimiento.
Por otro lado, robo-advice/automate
advice (asesoramiento automatizado)
permitirá dar recomendaciones basas en las respuestas proporcionadas por el usuario
o mediante otros datos obtenidos
mediante otra sistemas antes apuntados permitan a los consumidores apoyar su toma de decisiones.
Detección
del fraude
Las soluciones de detección de
fraude impulsadas por IA pueden permitir la prevención, predicción y detección
por las aseguradoras mediante tales herramientas, así como del análisis masivo
de datos múltiples sobre reclamaciones fraudulentas. Con ello, se ayudaría a la
reducción de los costes que generará a la industria y al precio de las primas.
Vigilancia
y prevención de riesgos
Los sistemas de IA favorecerán
a la predicción del riesgo. Igualmente, ayudarán a los clientes a cómo reducir
el riesgo, con lo que contribuirá a la reducción de la frecuencia y de la
gravedad de las consecuencias patrimoniales de los siniestros. Así pues,
ofrecerán la oportunidad de primas también más económicas para la clientela.
Igualmente, estos sistemas basados
en IA permitirán controlar y supervisar el comportamiento de la clientela en
función de los datos recopilados y procesados a través de ellos, dependiendo de
sus pautas de comportamiento así será también la prima, especialmente en el
sector del automóvil.
Marco
normativo europeo que garantice el acceso y uso de datos
El desarrollo de los sistemas
de IA dependerá de dos factores clave: el acceso y el intercambio de datos. Los
datos disponibles harán que los algoritmos sean eficaces siempre que aquellos
sean de calidad y fiables.
Uno de los desafíos a los que
se enfrentan las compañías aseguradoras en el desarrollo de tales sistemas es
el acceso y uso restringido y limitado de los datos desde el sector público.
La dependencia de la industria
a proveedores externos puede resultar en un acceso insuficiente a los datos que
de otro modo ayudarían a mejorar los sistemas de IA y el servicio. ¿Cómo debe
regirse el acceso a datos no personales entre las empresas cuando se concentran
los mismos en entidades con un poder dominante en el mercado?
Marco
metodológico normativo basado en principios
Un marco normativo basado en
principios basados en los marcos normativos existentes nacionales y de la UE,
que aborde las posibles lagunas de la legislación existente para remover
obstáculos al uso y desarrollo de las IA. Muestra como ejemplo el RGPD.
Toma en posición las
recomendaciones del Grupo de Expertos sobre Obstáculos regulatorios a la
Innovación Financiera (ROFIEG), que proponen orientaciones sobre el uso de las
nuevas tecnologías en los servicios financieros.
Igualmente, un desafío para la
industria se relaciona con la falta de colaboración entre las autoridades
nacionales competentes, por lo que se hace necesaria su colaboración e
implicación para el desarrollo del mercado único digital de los servicios
financieros.
Marco basado
en el riesgo
La industria de seguros apoya
un marco adecuado y proporcionado basado en principios formulados y centrados
en el ser humano con enfoque basado en el riesgo diferente en función de su
potencial para causar daño. El ámbito de aplicación debe limitarse únicamente a
las aplicaciones de IA que producen claramente efectos significativos.
En
el contexto de la legislación sobre servicios financieros y, en particular, de
los seguros, principios como la transparencia, la equidad y la ética también se
abordan en cierta medida mediante normas sobre la conducta de las empresas.
Además, las normas sobre asesoramiento se aplican siempre que se proporcione
una recomendación personal a un cliente, independientemente de si esa
recomendación es proporcionada por un actor humano o de IA.
Transparencia e información del uso IA
Las empresas
habrán de proporcionar información útil que permita entender cómo funcionan las
aplicaciones utilizadas, así como de su resultado en la toma de decisiones
automatizadas.
El
objetivo es facilitar la comprensión de los resultados algorítmicos en lugar de
buscar la divulgación o la transparencia del propio algoritmo.
Uso de la IA en términos de justicia y no de discriminación
Las
aplicaciones de IA han de ser justa y no discriminatoria. La equidad en el
diseño de la aplicación pude tenerse en cuenta a la hora de la selección de los
parámetros con el fin de eliminar posibles fuentes de sesgo, sin que ello
implique que no pueda llevarse a efecto diferencias en función de los factores
de riesgo entre grupos que presentan mayores riesgos frente a otros que
presentan menores riesgos.
Responsabilidad
en los sistemas de gobierno y externalización de funciones
En el contexto de la ética y
la IA, la responsabilidad por un resultado no previsto o incorrecto puede
implicar la adopción de medidas de mejora del resultado futuro.
Dentro del sector de los
seguros, esta función forma parte de los propios mecanismos de gobernanza
interna de una empresa, que se aborda en la Directiva Solvencia II y que
garantiza una supervisión y delegación adecuadas de responsabilidades para la
adopción y aplicación de los sistemas de IA.
Como parte de este marco, las
empresas también deben asegurarse de que los interesados reciben los canales
adecuados a través de los cuales preguntar, presentar apelaciones y solicitar revisiones
de las decisiones basadas en la IA que les afecten.
Los requisitos de
externalización también salvaguardan que las aseguradoras sean responsables
cuando subcontratan ciertas funciones a terceros.
Ética
La industria europea acoge el
trabajo realizado por la Comisión Europea HLEG sobre la IA y sus
recomendaciones para una IA fiable, que establece los principios éticos
pertinentes para garantizar que los sistemas de IA se desarrollen, desplieguen
y utilicen de manera fiable.
A medida que el uso y la
aplicación de los sistemas de IA se generalicen, las empresas deben asegurarse
de que los resultados de estos sistemas no violen sus normas éticas, valores y
códigos de conducta. Los clientes deben ser capaces de confiar en que no son perjudicados
debido al uso de la IA por parte de una empresa y que cualquier decisión
impulsada por la IA se mantiene con los mismos estándares éticos que las
decisiones impulsadas por el ser humano.
Además de estas
consideraciones morales y éticas, el RGPD ya contiene principios relevantes en
este contexto: (i) legalidad, equidad y transparencia, (ii) limitación de
propósito, (iii) minimización de datos, (iv) exactitud, (v) limitación de almacenamiento,
(vi) integridad y confidencialidad y (vii) responsabilidad.
El intercambio de experiencias
de las aseguradoras que cumplen con los principios contenidos en el RGPD puede
ser útil desde una perspectiva de cumplimiento y de evaluación sobre cómo ha de
ser el uso de la IA en el sector de los seguros desde las consideraciones
éticas.
No hay comentarios:
Publicar un comentario