Inicio justicia Desafíos e implicaciones de la IA generativa para la ley y política...

Desafíos e implicaciones de la IA generativa para la ley y política antidiscriminatoria

24
0

Hasta la fecha, no existen soluciones legales específicas adaptadas a las características de la discriminación algorítmica. La ley contra la discriminación en general, tal como está actualmente, aún no ha experimentado la transformación fundamental necesaria para abordar las complejidades de la era digital. Los marcos legales tradicionales siguen anclados en conceptos «analógicos» de discriminación que dependen en gran medida de la intención humana y del tratamiento dispar observado, lo que los hace menos equipados para manejar la toma de decisiones algorítmicas y los sesgos impulsados por la IA, donde la discriminación puede surgir sin intención explícita o visible o agencia humana. Reconociendo los desafíos que surgen del potencial discriminatorio de la GenAI, una serie de iniciativas políticas, por ejemplo, por la Unión Europea, han buscado establecer nuevos estándares para identificar y mitigar resultados discriminatorios en los sistemas de IA. Aunque estas políticas representan un paso inicial importante hacia una gobernanza de IA más justa, siguen siendo amplias y carecen de la granularidad necesaria para estandarizar evaluaciones de equidad para aplicaciones complejas de GenAI.

Las categorías y principios establecidos de la ley contra la discriminación se ven desafiados por todo lo digital: sistemas automatizados, toma de decisiones impulsada por IA y modelos de aprendizaje automático presentan nuevos desafíos que no son capturados adecuadamente por las categorías legales tradicionales. Cuando se trata de GenAI, esta ley ya mal equipada se enfrenta a una nueva forma de discriminación «estructural», todo bajo auspicios técnicamente nuevos que refuerzan aún más la debilidad de la ley contra la discriminación en comprender y sancionar dicha discriminación estructural de manera efectiva. Debido a la mayor complejidad técnica de GenAI y al hecho de que no se utiliza principalmente para reemplazar procesos de toma de decisiones humanas, sino para crear nuevo contenido, implica riesgos que son aún menos fáciles de categorizar en las categorías tradicionales de la ley contra la discriminación. Además, los desafíos regulatorios adicionales surgen de la falta inherente de transparencia: los sistemas algorítmicos a menudo se denominan «cajas negras» que dificultan determinar si los datos se han procesado legalmente, si se han cometido errores o si se ha producido discriminación. En un modelo dinámico y flexible como LLMs, esta «caja negra» se vuelve aún menos accesible, ya que no se puede determinar el «estado» o el «contenido» de un LLM en un momento específico. La caja negra escapa al control con marcos de medición estáticos conocidos, planteando un gran desafío para la investigación en IA.

Para la jurisdicción de la Unión Europea, ciertas esperanzas se depositaron en la Ley de Inteligencia Artificial (AI Act) que entró en vigor el 1 de agosto de 2024, después de años de negociaciones, aunque la Ley no tiene la intención principal de proteger los derechos individuales en general o convertirse en parte de la ley contra la discriminación en Europa, sino que es principalmente una ley de seguridad de productos. El AI Act establece un marco legal armonizado para los sistemas de IA en la UE, abarcando su entrada al mercado, despliegue y uso. Incluye prohibiciones sobre ciertas prácticas de IA, requisitos y obligaciones específicos para sistemas de IA de alto riesgo y reglas de transparencia para aplicaciones de IA designadas. Además, establece regulaciones de mercado para modelos de IA de propósito general, esboza mecanismos de monitoreo, ejecución y gobernanza e introduce medidas para fomentar la innovación, beneficiando especialmente a las pequeñas y medianas empresas y startups. Para lograr esto, la regulación establece un marco de gestión de riesgos que impone diferentes obligaciones en el uso de la IA, según su nivel de riesgo respectivo. El AI Act distingue cuatro niveles de riesgo: sistemas con riesgos inaceptables, altos riesgos, riesgos mínimos y sin riesgos. Las obligaciones varían según el nivel de riesgo.

La Ley de Servicios Digitales (DSA) tiene como objetivo principal la moderación de contenido. Está dirigida a intermediarios y plataformas en línea, proporcionando regulaciones para prevenir la propagación de desinformación y actividades dañinas e ilegales en línea. La DSA distingue si el intermediario proporciona servicios de «mero conducto», «caching» o «hosting», y otorga exenciones de responsabilidad para el contenido respectivo. Solo cuando los operadores tengan conocimiento de actividades ilegales o dañinas, están legalmente obligados a tomar medidas apropiadas. Esta protección de responsabilidad está condicionada a la neutralidad de la plataforma. Adicionalmente, establece «obligaciones de diligencia debida para un entorno en línea transparente y seguro» que se aplican a todos los intermediarios, requiriéndoles establecer puntos de contacto para las autoridades y los usuarios, designar un representante legal si se encuentran fuera de la UE y garantizar la transparencia en términos y condiciones sobre restricciones de servicio. Además, deben publicar informes de transparencia anuales detallando actividades de moderación de contenido y medidas de cumplimiento para mejorar la rendición de cuentas y la transparencia. Los proveedores de GenAI no caen explícitamente en el ámbito de la DSA, ya que no son un servicio intermediario como se define en la DSA. Por lo tanto, la aplicabilidad de la DSA a GenAI aún es objeto de debate.