La carrera por dominar los datos y la infraestructura que alimenta la inteligencia artificial va de la mano de la carrera por crear leyes y políticas que faciliten el control sobre esta revolución tecnológica. La aprobación de la Ley de IA de la UE en 2024 marcó un hito importante en la legislación integral que rige la inteligencia artificial, aunque una tendencia más reciente ha sido suavizar los límites regulatorios sobre la tecnología en nombre de la competencia y la innovación. Como muestra el Global AI Law and Policy Tracker actualizado, muchas naciones continúan debatiendo políticas impactantes, probando nuevos modelos de gobernanza a medida que los riesgos y recompensas de las inversiones en IA se revelan diariamente.
Una corriente constante de legislación
Mientras la UE considera poner una pausa en la implementación de parte de su Ley de IA, otros países están avanzando en sus esfuerzos para aprobar nueva legislación sobre IA. Por ejemplo, Corea del Sur finalizó su Ley Marco de IA en enero de 2025, que refuerza los requisitos de transparencia y seguridad y ofrece diversas medidas promocionales, como apoyo a la investigación y desarrollo y a la adopción de IA y la preparación de la fuerza laboral. Asimismo, Japón promulgó la Ley de Promoción de IA en mayo de 2025, una regulación ligera que fomenta que las empresas colaboren con las medidas de seguridad del gobierno y faculta al gobierno para hacer pública la lista de empresas que utilizan la IA para violar los derechos humanos. Además, China promulgó sus Reglas de Etiquetado de IA, que generalmente requieren que los proveedores de servicios, según la definición de las regulaciones de IA existentes en China, añadan etiquetas explícitas e implícitas al contenido generado por IA.
La lista de proyectos de ley de IA en fase de preparación es aún más formidable. Incluye el Proyecto de Ley sobre la Protección de Datos Personales en Sistemas de IA de Argentina, que busca regular el uso de datos personales utilizados para desarrollar sistemas de IA más allá del alcance de la ley de protección de datos existente en Argentina, y el propuesto Digital India Act de la India, que tiene como objetivo actualizar el régimen regulatorio de la India en relación con el ciberespacio y proporcionar disposiciones que regulen el contenido generado por IA. Las propuestas también incluyen el Proyecto de Ley n.° 2338/2023 de Brasil, que crearía un marco basado en el riesgo que impone evaluaciones de riesgos y mecanismos de apelación en sistemas de alto riesgo, así como el Proyecto de Ley sobre IA de Vietnam, que enfatiza el centrismo en la humanidad, la gestión basada en el riesgo y las distinciones regulatorias dependiendo del lugar de una entidad en la cadena de suministro de IA.
También hay nuevas leyes que impactan indirectamente en el desarrollo de la IA. Australia realizó enmiendas a su Ley de Privacidad, que regula las revelaciones en torno a la toma de decisiones automatizadas, y la aprobación del Data (Use and Access) Act del Reino Unido modifica el Reglamento General de Protección de Datos del Reino Unido de maneras destinadas a promover la innovación y el crecimiento económico, como aclarar cuándo se puede utilizar datos personales para la investigación científica y liberalizar las bases legales disponibles para la toma de decisiones automatizada.
El auge de los centros de IA
Mientras las naciones erigen barreras regulatorias, muchas están extendiendo simultáneamente políticas que atraen inversiones en el desarrollo y la infraestructura de IA. Chile es un buen ejemplo, ocupando el primer lugar en el Índice de IA de América Latina mientras expande la construcción de centros de datos, despliega cables de fibra óptica submarinos adicionales y promueve startups locales de IA. En el lado opuesto del continente, Brasil planea invertir 4 000 millones de dólares en proyectos empresariales de IA, infraestructura, iniciativas de formación, mejoras en los servicios públicos y marcos regulatorios.
Muchos de los estados del Golfo también tienen la intención de convertirse en centros de IA. Por ejemplo, los Emiratos Árabes Unidos albergan una creciente comunidad de startups e investigadores, así como recursos de supercomputación de última generación, incluido Stargate UAE, una asociación entre los Emiratos, Estados Unidos y OpenAI para construir una capacidad informática a escala de vanguardia en los Emiratos Árabes Unidos y permitir herramientas de IA en sectores críticos. Además, Arabia Saudita tiene la intención de aprovechar su población joven y vibrante y su ecosistema de gobernanza centralizada, organizando eventos y atrayendo inversiones para convertirse en un destacado exportador de datos y IA para 2030.
Corea del Sur también busca ser un centro de innovación en IA. El país ha lanzado el Hub de Innovación Abierta de IA, una plataforma nacional de apoyo al desarrollo de IA, y planea construir el centro de datos de IA con mayor capacidad del mundo.
Señales de desregulación
Por supuesto, también se vislumbran señales de desregulación en el horizonte. En primer plano está la posibilidad de que la UE posponga la implementación de la Ley de IA, recogida en una Propuesta de Digital Omnibus sobre la Regulación de la IA publicada por la Comisión Europea a mediados de noviembre de 2025. La propuesta señaló varios desafíos de implementación, incluidos retrasos en la designación de autoridades competentes, así como la falta de estándares armonizados para los requisitos de IA de alto riesgo y las herramientas de orientación necesarias. Se propusieron varios cambios a la ley, incluido el retraso en la aplicación de disposiciones que rigen los sistemas de IA de alto riesgo para alinear la aplicación con la disponibilidad de herramientas de cumplimiento. Otras enmiendas incluyen requisitos reducidos de documentación para pequeñas y medianas empresas y refuerzan los poderes de supervisión de la Oficina de IA respecto a los modelos de IA de propósito general. Si bien esta propuesta es solo eso, anticipa futuras negociaciones sobre el despliegue de la Ley de IA y su impacto regulatorio.
Además, la Comisión de Productividad de Australia emitió un informe que, en parte, se inclina en contra de la sobre-regulación de la IA. El informe destaca el efecto inhibidor que una regulación onerosa puede tener en la inversión y subraya la importancia de perseguir objetivos regulatorios al menor costo posible para la innovación. De manera similar, la Oficina de Competencia de Canadá publicó un informe que indica que la regulación específica del sector de la IA puede obstaculizar la innovación, imponer cargas al crecimiento y crear barreras de entrada para las startups.
Los Estados Unidos también han estado a la vanguardia de la tendencia desreguladora, con una orden ejecutiva del presidente Donald Trump que busca eliminar barreras al desarrollo de la IA y estimular la innovación, y otra que trabaja para liberar la prosperidad a través de la desregulación. Estas órdenes ejecutivas anticiparon el Plan de Acción de IA de la administración, que tiene como objetivo acelerar la innovación y construir infraestructura mediante, por ejemplo, eliminando la burocracia y la regulación onerosa. Además, una orden ejecutiva de diciembre de 2025 detalla otros esfuerzos de la Casa Blanca para limitar las leyes estatales de IA en los Estados Unidos.
Gobernanza a través de normas
Cuando carecen leyes vinculantes, las normas operativas y técnicas continúan llenando el vacío, además de evitar las trampas de la legislación tradicional. Por ejemplo, el gobierno de Canadá estableció la Colaboración para la Estandarización de IA y Datos para desarrollar normas basadas en necesidades probadas de múltiples partes interesadas y garantizar la consistencia en los marcos nacionales e internacionales. La colaboración promueve la idea de que las normas hacen que los productos y servicios sean más seguros y fomentan la innovación.
El Departamento de Industria, Ciencia y Recursos de Australia lanzó el Estándar de Seguridad Voluntario de IA, que comprende 10 medidas para desarrollar IA segura y responsable, incluidos requisitos de pruebas, transparencia y responsabilidad. Equilibrando riesgo y recompensa, el estándar tiene como objetivo garantizar una IA confiable en entornos de alto riesgo y fomentar la floreciente IA en entornos de bajo riesgo.
Otras naciones que trabajan en este espacio incluyen China, cuya Administración de Estandarización publicó tres normas para mejorar la seguridad de la IA generativa, e India, cuyo Ministerio de Electrónica e Información está trabajando con partes interesadas de la industria para desarrollar diversas normas para métricas como fiabilidad, explicabilidad y privacidad. Del mismo modo, la Oficina de Estándares de IA del Reino Unido es una iniciativa dedicada a la estandarización global de la IA.
Preguntas sobre los derechos de autor
El uso de datos con derechos de autor para entrenar sistemas de IA sigue siendo un tema legal polémico. Desarrollos recientes en este sentido incluyen un proceso de consulta pública iniciado por la Oficina de Comercio y Desarrollo Económico de Hong Kong y el Departamento de Propiedad Intelectual para evaluar posibles actualizaciones a las leyes de derechos de autor para crear una excepción para el análisis y procesamiento computacional de datos. En la misma línea, el Tribunal de Distrito de los EE. UU. para el Distrito Norte de California encontró que entrenar un modelo de IA en obras con derechos de autor probablemente califica como uso justo. Sin embargo, el tribunal también determinó que el almacenamiento de las mismas obras en una biblioteca central solo constituye un uso justo si esas obras se obtuvieron legalmente.
Menos recientemente pero igualmente relevante, Japón enmendó su Ley de Derechos de Autor, que ahora permite el uso de obras con derechos de autor con fines de desarrollo y entrenamiento de IA, siempre que el uso no tenga la intención de replicar el contenido expresivo de la obra. Además, el Ministerio de Justicia de Israel emitió una opinión que sostiene que el uso de material con derechos de autor está permitido con fines de aprendizaje automático.
Cooperación internacional en curso
En medio de toda esta formulación de políticas, la cooperación internacional sobre la gobernanza de la IA continúa. Singapur destaca como líder en diplomacia, presentando una iniciativa con los EE. UU. para crear interoperabilidad entre los marcos de gobernanza de ambas naciones, y firmando acuerdos con Australia y la Oficina de IA de la UE para cooperar en la seguridad e innovación de la IA. De manera similar, la Autoridade Nacional de Proteção de Dados de Brasil se reunió con la DPA de Francia, la Commission nationale de l’informatique et des libertés, para fortalecer la cooperación en materia de IA, protección de datos y educación digital; además, Brasil y Nigeria firmaron un memorando para fortalecer su colaboración en el desarrollo de la IA y la transferencia de tecnología. Además, Canadá se unió a varias otras naciones del G20 para redactar un conjunto de principios para guiar la adopción de la IA en la industria de las telecomunicaciones, centrándose en el crecimiento, la seguridad y los beneficios sociales. Por último, el Reino Unido y Qatar se comprometieron a aumentar la colaboración en la investigación de IA.
Conclusión
A pesar de la aparición de tendencias desreguladoras, la legislación y las políticas que rigen la IA continúan proliferando, aunque sea en formas nuevas y creativas. Algunas jurisdicciones continúan debatiendo leyes integrales, otras consideran la eficacia de las normas, mientras que la mayoría sigue convencida de que la colaboración internacional y la diplomacia son fundamentales para la gobernanza exitosa de esta tecnología disruptiva. Siga el Global AI Law and Policy Tracker de la IAPP para mantenerse al día con estas posiciones políticas en evolución.
Will Simpson, AIGP, CIPP/US, es miembro becario Westin de la IAPP.





