Inicio Guerra Huelga mortal en una escuela de Irán proyecta sombra sobre impulso de...

Huelga mortal en una escuela de Irán proyecta sombra sobre impulso de Pentagono para apuntar con IA.

9
0

KYIV, Ucrania – En el primer día de la guerra entre Estados Unidos e Irán, un misil de crucero Tomahawk golpeó la escuela primaria Shajareh Tayyebeh en Minab, al sur de Irán. Según funcionarios de la ONU e iraníes, murieron al menos 168 personas, más de 100 de ellas menores de 12 años. El edificio escolar estaba a menos de 100 yardas de una instalación naval de largo tiempo del Cuerpo de la Guardia Revolucionaria Islámica y anteriormente estaba dentro del perímetro del complejo del IRGC hasta que apareció un muro entre 2013 y 2016, según un análisis de imágenes de satélite realizado por Amnistía Internacional. Cuando Estados Unidos e Israel lanzaron sus primeros ataques el 28 de febrero, la escuela ya había sido establecida varios años antes. Era activa en las redes sociales y tenía su propio sitio web, según una investigación de Reuters. Entonces, ¿qué salió mal? «Más de 120 demócratas de la Cámara preguntaron el 12 de marzo al Pentágono en una carta si se utilizó inteligencia artificial, incluido el uso del Sistema Maven Smart, para identificar la escuela Shajareh Tayyebeh como objetivo, justo días después de que 46 demócratas del Senado enviaron una solicitud similar exigiendo claridad sobre el impacto mortal.» El Sistema Maven Smart, una plataforma de inteligencia y orientación construida por la empresa de análisis de datos Palantir Technologies bajo un contrato de $1.3 mil millones del Pentágono, fue creado para resolver un problema que ha crecido exponencialmente en los últimos años: la sobrecarga de información, con la inteligencia artificial como su arma secreta. Maven fusiona imágenes de satélite, feeds de drones, datos de radar e inteligencia de señales en una sola interfaz, clasifica objetivos, recomienda sistemas de armas y genera paquetes de ataques en tiempo casi real, comprimiendo el razonamiento de la cadena de muerte y la toma de decisiones en los plazos más rápidos jamás vistos en el campo de batalla. Y utiliza el modelo de inteligencia artificial Claude de Anthropic, incrustado en su sistema, para clasificar semi-autónomamente objetivos por importancia estratégica, redactando justificaciones legales automatizadas para cada ataque en el camino. El software generó cientos de coordenadas de ataque en las primeras 24 horas de la campaña en Irán, lo que permitió a Estados Unidos golpear más de 1,000 objetivos en las primeras 24 horas de la guerra, según The Washington Post. Después de que fuentes informadas sobre hallazgos preliminares dijeron a CNN que el Comando Central de EE. UU. había creado coordenadas de ataque utilizando información de inteligencia desactualizada proporcionada por la Agencia de Inteligencia de Defensa que no se había actualizado para reflejar la presencia de la escuela, una pregunta se volvió central en las investigaciones: «Si es así, ¿verificó un ser humano la precisión de este objetivo?» Todavía están esperando una explicación oficial. Los operadores de drones ucranianos que construyen y despliegan sistemas de orientación semi-autónomos en la primera línea dijeron a Military Times que reconocieron inmediatamente al probable culpable. Ihor Matviyuk, director de Aero Center, una empresa de drones ucraniana que construye y despliega drones semi-autónomos en las líneas del frente de la guerra con Rusia, dijo que puede imaginar exactamente cómo falló. Aunque no tiene información interna sobre el golpe en Minab específicamente, a principios de este mes dijo que presenta las características de una falla en la orientación, no un mal funcionamiento de la IA. «Casi seguro fue un ataque a las coordenadas dadas», dijo Matviyuk a Military Times. «El principal problema no fue la IA, fue lo cerca que estaba el objeto militar de la escuela.» La semana pasada, ex altos funcionarios militares que hablaron con Semafor confirmaron la evaluación inicial de Matviyuk: «Los humanos, no la IA, son los responsables» del ataque a la escuela, dijeron, señalando datos humanos obsoletos proporcionados a la plataforma de orientación Maven del Pentágono. Matviyuk reconoció el patrón porque ha tenido que decidir cuánta IA usar en sus propios sistemas de armas semi-autónomos una y otra vez a medida que la guerra de drones y las capacidades de software han evolucionado rápidamente en el campo de batalla de Ucrania. «La orientación automática nos permite capturar menos de la mitad de los objetivos, no más, porque todos están camuflados», dijo Matviyuk. «Apoyamos la idea de utilizar cada vez menos el elemento humano en el trabajo del operador de drones. Autonomía, elementos autónomos de drones, es en lo que estamos trabajando.» El problema, en su opinión, no fue que el Pentágono utilizara la IA. Fue que los datos detrás del objetivo no se habían actualizado desde que una escuela de niñas reemplazó a un cuartel general militar en las mismas coordenadas y las personas cuyo trabajo era verificar esos datos ya habían sido eliminadas de la cadena. Los sistemas de IA son tan confiables como las personas que los construyen, alimentan y supervisan, enfatizó Matviyuk. Cuando falla el eslabón humano, ya sea por datos incorrectos, supervisión reducida o plazos comprimidos, la máquina seguirá ejecutando el error con precisión. La ex directora de inteligencia del CENTCOM, teniente general Karen Gibson, fue inequívoca sobre dónde recae la responsabilidad de los ataques letales, independientemente de la autonomía del arma, en un panel del Centro de Estudios Estratégicos e Internacionales la semana pasada. «Siempre volveré al principio fundamental de la responsabilidad y la responsabilidad humanas», dijo. «En última instancia, un comandante será considerado responsable, no una máquina o un ingeniero de software.»