Inicio Ciencia La AMF y la gobernanza de la IA, o cuando las instituciones...

La AMF y la gobernanza de la IA, o cuando las instituciones adelantan a la ley

21
0

La Autorité des marchés financiers (AMF) acaba de publicar una Guía sobre el uso de la inteligencia artificial (IA) dirigida a aseguradoras, cooperativas de servicios financieros, compañías fiduciarias e instituciones de depósito autorizadas. En un contexto marcado por la ausencia de un marco legislativo plenamente establecido, tanto en Quebec como en Canadá, esta iniciativa merece una atención especial. Constituye tanto una señal fuerte como un laboratorio concreto de gobernanza de la inteligencia artificial.

En este contexto, la AMF se posiciona como una institución reguladora particularmente estructurante. Al intervenir de manera proactiva, no se limita a esperar una regulación normativa aún incierta, sino que contribuye a esbozar los contornos, traduciendo principios abstractos en prácticas organizativas concretas.

Es importante recordar que la IA ya no es un horizonte tecnológico abstracto. Ya está en funcionamiento en sectores que estructuran profundamente la vida cotidiana, especialmente en seguros y servicios financieros. Tarificación personalizada, detección de fraudes, automatización de reclamaciones: son algunos de los usos en los que los sistemas de IA influyen directamente en decisiones que afectan a los ciudadanos.

En este sentido, la iniciativa de la AMF es interesante por partida doble. Por un lado, reconoce explícitamente que los beneficios esperados de la IA conllevan múltiples riesgos, ya sean técnicos, organizativos, éticos o sociales. Por otro lado, propone una respuesta estructurada basada en principios de gobernanza y gestión de riesgos inspirados en estándares internacionales, principalmente los de la OCDE.

Una gobernanza que comienza en la cima

Uno de los aportes principales de esta guía radica en la importancia otorgada a la gobernanza. La AMF no se limita a consideraciones técnicas, sino que exige una participación explícita del consejo de administración y de la alta dirección en la supervisión de los sistemas de IA.

Este cambio es crucial, ya que refleja una evolución significativa. La IA ya no es solo un tema de ingenieros o especialistas en datos. Se convierte en un tema estratégico que corresponde a la responsabilidad de los órganos directivos. Por lo tanto, el consejo de administración debe comprender los riesgos asociados con la IA, seguir su evolución y asegurarse de que la organización tenga las habilidades necesarias para gestionarlos. Esta exigencia se alinea con una fuerte intuición en ciencia y tecnología: las decisiones técnicas también son decisiones políticas y organizativas. En este sentido, la AMF contribuye a reconfigurar el lugar de la IA en las instituciones, sacándola de una lógica puramente operativa.

Otro punto fuerte es un enfoque basado en riesgos, pragmático pero exigente. Cada sistema de IA debe ser identificado, evaluado, clasificado en función de un nivel de riesgo, y luego monitoreado a lo largo de su ciclo de vida. Este marco presenta varias ventajas. Evita una regulación uniforme y rígida al modular los requisitos según los usos. Un sistema utilizado para recomendar productos financieros no plantea los mismos desafíos que un sistema que automatiza el aceptar o rechazar una reclamación de seguro.

Pero este enfoque también plantea un desafío considerable: requiere una capacidad organizativa elevada. Mapear todos los sistemas de IA, evaluar los riesgos, garantizar su monitoreo continuo… Todo esto requiere recursos, habilidades y herramientas que aún no están equitativamente distribuidos entre las instituciones.

En otras palabras, la guía de la AMF no solo establece pautas, sino que eleva el nivel de exigencia.

La ética como principio operativo

Uno de los aspectos más interesantes del documento radica en la integración explícita de consideraciones éticas en el núcleo de las prácticas. La AMF insiste especialmente en la prevención de sesgos, la no discriminación y el trato equitativo a los clientes.

Esto es crucial en el sector de los seguros. El uso de datos masivos y modelos predictivos puede llevar a formas de discriminación indirecta, por ejemplo, mediante variables de sustitución que reproducen desigualdades sociales. La guía no solo exige la identificación de estos riesgos, sino también su corrección y documentación. También impone obligaciones de transparencia, ya que las instituciones deben informar a los clientes cuando interactúan con un sistema de IA, y ser capaces de explicar las decisiones tomadas o recomendadas por estos sistemas.

Estas exigencias reflejan una concepción rigurosa de la responsabilidad algorítmica. Recuerdan que la confianza en las instituciones financieras también radica en su capacidad para rendir cuentas por sus decisiones, incluso cuando están automatizadas.

Límites a considerar

A pesar de sus cualidades, esta iniciativa presenta ciertas limitaciones.

En primer lugar, es una guía, no una ley. Por lo tanto, se basa en un principio de conformidad prudencial en lugar de obligaciones legalmente vinculantes en sentido estricto. Esto puede limitar su alcance, especialmente en caso de divergencias en la interpretación o implementación desigual.

Además, el documento deja un amplio margen a las instituciones en la definición de sus propias prácticas. Si esta flexibilidad es coherente con un enfoque basado en riesgos, también puede conducir a brechas significativas entre organizaciones.

Finalmente, la cuestión de los recursos sigue siendo central. No todas las instituciones tienen la misma capacidad para internalizar estos requisitos. El riesgo es que surja una gobernanza de la IA a dos velocidades.

Un modelo a generalizar

A pesar de estas limitaciones, la iniciativa de la AMF merece ser elogiada. Ilustra un camino posible en un contexto en el que los marcos legislativos tienen dificultades para mantenerse al día con las innovaciones.

Este movimiento no está aislado. En Quebec, la administración pública recientemente adoptó una «indicación de aplicación» que regula el uso de la inteligencia artificial generativa, también basada en una lógica de gobernanza, gestión de riesgos y supervisión humana. Esta convergencia no es trivial; es evidencia de la gradual emergencia de un modelo quebequense de regulación pragmática de la IA, menos enfocado en la prohibición que en la organización de responsabilidades.

Sobre todo, plantea una pregunta más amplia: ¿por qué este tipo de enfoque no se generalizaría a otros sectores? Salud, educación, plataformas digitales: en todas partes, los sistemas de IA se están implementando con efectos potencialmente importantes en las personas. En todos lados, surgen desafíos de gobernanza, transparencia y responsabilidad de la misma manera.

El ejemplo de la AMF muestra que es posible actuar sin esperar una ley marco exhaustiva. También muestra que la regulación de la IA no solo pasa por prohibiciones u obligaciones formales, sino también por la estructuración de prácticas organizativas. En este sentido, esta guía es más un punto de partida que un punto final. Invita a repensar la gobernanza de la IA como una responsabilidad colectiva, compartida entre reguladores, instituciones y, en última instancia, ciudadanos.

Más allá de los debates técnicos y jurídicos, una cosa es segura: la inteligencia artificial no es solo una tecnología. Es un modo de toma de decisiones que, cada vez más, organiza nuestras vidas. Y como tal, no puede permanecer sin timón.