Aspectos Clave:
- Existen dudas sobre si ciertos riesgos están cubiertos por las aseguradoras y los asegurados.
- Los aseguradores comerciales deben decidir qué riesgos están dispuestos a cubrir.
- Riesgos como la responsabilidad de los medios, errores y omisiones, y sesgos laborales están entre los afectados.
La inteligencia artificial (IA) puede ser un gran desafío para el seguro comercial.
Recientemente, se han planteado numerosas preguntas sobre cómo las aseguradoras cubren o deberían cubrir los riesgos asociados con la IA, según expertos en derecho de seguros que participaron en el evento Cyber Risk Insights de Zywave en Nueva York el 29 de octubre. El término «IA silenciosa» se refiere a las pólizas de seguro redactadas sin especificar claramente qué riesgos relacionados con la IA están cubiertos o no.
La IA presenta una variedad de riesgos para las empresas comerciales, que incluyen sesgos de IA que pueden llevar a la discriminación en el empleo o la vivienda, infracción de derechos de autor cuando se utiliza la IA para producir materiales mediáticos, y errores cometidos al usar IA en el proceso de descubrimiento en litigios, según Christopher Suesing, socio de Wood Smith Henning & Berman LLP.
En las coberturas de seguros comerciales, como la responsabilidad de medios, errores y omisiones (E&O), y la responsabilidad por prácticas laborales, las disposiciones sobre riesgos de IA pueden no estar explícitamente mencionadas, de acuerdo con Kevin Casey, líder de redacción cibernética e innovación de productos en QBE, una aseguradora y reaseguradora global.
«Cuando se diseñaron estas pólizas, quizás no se consideró la IA en el pricing. No hay cifras afirmativas que indiquen que esto está cubierto, ni tampoco un lenguaje de exclusión que diga que no está cubierto», comentó. «Hay una ambigüedad desde la perspectiva del asegurador: ¿consideramos este riesgo al fijar el precio? Luego, por supuesto, está la ambigüedad para el consumidor final, quien dice: ‘No sé si estos riesgos están cubiertos’. «
Esto significa que los aseguradores comerciales deben decidir qué riesgos de IA cubrir de manera afirmativa en las pólizas cibernéticas u otras pólizas especializadas. «¿Cómo modelamos esa exposición, y si algunas de estas exposiciones deberían estar dentro de la póliza cibernética?» preguntó Michelle Worrall, directora global de productos de seguros en Resilience, una consultoría de riesgo cibernético.
En el caso del seguro de responsabilidad de medios, por ejemplo, Worrall mencionó que el uso de IA para desarrollar contenido puede traer riesgos como la difamación, invasión de la privacidad y la apropiación de la imagen de alguien. Esto constituye una exposición «silenciosa» en este tipo de seguro, explicó.
Los aseguradores cibernéticos probablemente no deseen asumir las consecuencias de cómo la IA puede interactuar con conjuntos de datos, según Worrall. Es probable que los aseguradores de responsabilidad de medios comiencen a definir lo que realmente incluyen sus disposiciones de E&O en cuanto a la IA, tales como daños por angustia emocional, añadió. La cobertura de prácticas comerciales engañosas derivadas de representaciones falsas de productos y servicios por parte de la IA es un «riesgo moral», creando la pregunta de si esto debería estar cubierto en el seguro para actividades de IA, agregó Worrall.
«Las compañías de seguros están analizando detenidamente ese acuerdo de aseguramiento, tratando de determinar que probablemente queramos cubrir el modelo de lenguaje grande en sí mismo y la infracción de derechos de autor derivada de los conjuntos de datos de entrenamiento», dijo. «Pero ¿el resultado que se difunde al público? Quizás.»