Amnistía Internacional declaró que la Cumbre de Impacto de la IA de India 2026 no aseguró compromisos concretos para detener las «prácticas destructivas» de los gobiernos y las empresas de tecnología, advirtiendo que la reunión no abordó de manera significativa los riesgos para los derechos humanos planteados por la inteligencia artificial.
La organización señaló la implementación continuada de herramientas de IA en contextos como la vigilancia predictiva, la vigilancia biométrica y la administración automatizada del bienestar, y a los compromisos voluntarios y los estándares de la industria, que no sustituyen a la regulación exigible capaz de prevenir violaciones de derechos y garantizar el acceso a remedios.
Las críticas a los resultados de la cumbre se extendieron a su marco y prioridades. La Internet Freedom Foundation escribió que la Cumbre de Impacto de la IA de India «promete poco más que un espectáculo», argumentando que el evento destacó la ambición tecnológica y la posición geopolítica evitando medidas de rendición de cuentas firmes. De manera similar, una coalición de grupos de derechos digitales informó que la cumbre no incorporó de manera significativa las recomendaciones de organizaciones de base, incluidos los llamamientos a obligaciones de transparencia y mecanismos de supervisión independientes.
Las preocupaciones sobre el impacto de la IA en las comunidades marginadas también fueron destacadas en los análisis publicados junto con la cumbre. Una organización internacional sin ánimo de lucro ha documentado cómo los sistemas de IA pueden perjudicar de manera desproporcionada a minorías raciales y religiosas, migrantes y grupos de bajos ingresos, especialmente cuando se utilizan en gestión de fronteras, aplicación de la ley y acceso a servicios públicos. En un país dominado por castas y centrado en la religión como India, estos prejuicios pueden causar un daño irreparable a comunidades ya vulnerables y objeto de persecución, como los migrantes.
En abril de 2024, Amnistía Internacional advirtió que los sistemas automatizados de protección social en India y en otros lugares corren el riesgo de excluir a individuos de beneficios de bienestar esenciales debido a datos defectuosos, sesgos algorítmicos y una supervisión humana insuficiente.
Los analistas de políticas también han instado a los gobiernos a centrarse principalmente en los derechos humanos en la gobernanza de la IA. La Fundación de Investigación Observer argumentó que la política de IA debe colocar a «las personas en el centro de la historia de la IA», enfatizando la gobernanza participativa y salvaguardias contra la discriminación algorítmica. El análisis destaca la necesidad de incorporar protecciones de derechos en la etapa de diseño de los sistemas de IA en lugar de depender de correcciones posteriores.
La cumbre tuvo lugar en medio de crecientes esfuerzos internacionales para abordar las brechas en la gobernanza de la IA. En julio de 2024, la Asamblea General de la ONU adoptó una resolución preliminar destinada a cerrar la brecha de la inteligencia artificial para los países en desarrollo y promover un acceso equitativo a las tecnologías de IA. Si bien la resolución enfatizó la cooperación y el desarrollo de capacidades, Amnistía sostuvo que los compromisos mundiales deben ser respaldados por marcos legales nacionales que prohíban claramente aplicaciones de IA que violen los derechos.


:quality(75)/https%3A%2F%2Fassets.lareviewofbooks.org%2Fuploads%2FJustice%20in%20the%20Balance%20crop.jpg)



