Inicio Guerra La transformación tecnológica del conflicto armado en Colombia.

La transformación tecnológica del conflicto armado en Colombia.

39
0

El personal militar colombiano instalando un dron ART SCANEAGLE-NIGHTEAGLE durante la Feria Aeronáutica Internacional de Colombia 2019 en el Aeropuerto Internacional José María Córdova de Rionegro, Colombia, el 11 de julio de 2019. Imagen del Sargento de Estado Mayor Megan Floyd, de la página de Flickr de la Guardia Nacional Aérea de Carolina del Sur. Dominio público.

Este artículo es parte de la serie especial de Global Voices para abril de 2026, «Perspectivas Humanas sobre la IA». Esta serie ofrecerá una visión de cómo se está utilizando la IA en países de la mayoría global, cómo su uso e implementación están afectando a comunidades específicas, lo que este experimento con la IA podría significar para las generaciones futuras, y más. Puede apoyar esta cobertura haciendo una donación aquí.

La inteligencia artificial (IA) no actúa de manera neutral en contextos de guerra. En Colombia, está ganando gradual importancia, amplificando desigualdades, acelerando la desinformación y reconfigurando la violencia.

A través de cinco casos reportados por los medios locales, este artículo explora cómo las tecnologías accesibles están reconfigurando diferentes dimensiones del conflicto armado en Colombia, que, a pesar de varios procesos de paz, ha persistido durante más de 60 años debido a la presencia de múltiples grupos armados no estatales, economías ilegales y profundas desigualdades regionales. Más que una simple adopción uniforme de inteligencia artificial, ha surgido una innovación tecnológica que está transformando no solo el campo de batalla, sino también los procesos de toma de decisiones, las narrativas locales y las formas de control social.

Drones de bajo costo

En varias regiones de Colombia, desde 2024, grupos armados no estatales han estado utilizando drones comerciales modificados de manera rudimentaria para atacar estaciones de policía y posiciones militares con explosivos, dejando a cientos de personal uniformado herido o muerto. Si bien estos dispositivos no incorporan IA, su uso refleja la capacidad de actores armados con recursos limitados para adaptar tecnologías accesibles y cambiar así el equilibrio táctico de poder.

En sistemas más sofisticados y producidos a escala, como se ha visto en la guerra en Ucrania y en conflictos vinculados a Irán, los drones forman parte de estrategias militares más complejas. En el contexto colombiano, sin embargo, el uso de drones representa una etapa intermedia: una guerra aún conducida por humanos, pero que se acerca a formas de automatización que podrían integrar herramientas algorítmicas más sofisticadas en el futuro.

Sistemas antimisiles más sofisticados

La transformación del campo de batalla con el uso de drones de bajo costo ha obligado a una respuesta tecnológica por parte del Estado.

Desde 2025, el gobierno colombiano ha estado creando un «escudo nacional anti-dron», una arquitectura tecnológica compleja que combina diversas capacidades: sensores especializados capaces de detectar drones y diferenciarlos de aves o aeronaves; tecnologías como micro-Doppler para identificar objetos en movimiento; sistemas de radiofrecuencia que localizan y bloquean la señal entre el dron y su operador; y mecanismos de neutralización electrónicos y físicos. Esta plataforma híbrida, con su combinación de sensores físicos, algoritmos de procesamiento de datos y toma de decisiones humanas, redefine gradualmente la forma en que se detectan, evalúan y responden a las amenazas.

Algoritmos que mapean riesgos y operaciones

Las instituciones de seguridad han comenzado a incorporar herramientas de IA para guiar la acción operativa, basadas en análisis de datos que les permiten identificar riesgos y anticipar amenazas. El Modelo de Servicio Policial, adoptado en 2024, propone un despliegue «enfocado y diferenciado» basado en análisis de datos en tiempo real para identificar puntos calientes del crimen.

Este enfoque también ha sido adoptado por el ejército. Informes de la Fuerza Aérea Colombiana señalan el uso de sistemas de vigilancia y reconocimiento que integran sensores avanzados y procesamiento de datos para construir modelos de riesgo en zonas de conflicto, facilitando el despliegue más preciso de capacidades en tierra y en el aire.

Estos sistemas no operan de forma autónoma; más bien, estructuran el mapa sobre el cual se toma la acción. En un contexto caracterizado por desigualdades regionales y calidad limitada de los datos, la promesa de una mayor eficiencia en seguridad conlleva el riesgo de reproducir sesgos existentes e intensificar la vigilancia en áreas estigmatizadas, mientras que otras permanecen invisibles.

Manipulando narrativas

En 2023, los medios locales documentaron el aumento del uso de AI para engañar a las personas en contextos políticos sensibles. Durante las elecciones regionales en octubre, que vieron disputas de poder locales en áreas afectadas por grupos armados, mensajes de audio generados artificialmente comenzaron a compartirse utilizando las voces de candidatos electorales, para atacar o beneficiar sus campañas.

Ese noviembre, se compartieron videos con avatares generados por IA que fingían ser doctores, pacientes a largo plazo y personal militar llamando a protestas contra el gobierno. Esta producción sofisticada de voces e imágenes falsas puede alterar la percepción pública e influir en las decisiones de seguridad, estigmatizar comunidades y legitimizar medidas de control.

La base social del control algorítmico

Grupos comunitarios en redes sociales que trabajan, en teoría, para compartir alertas de seguridad, han sido cooptados por grupos armados no estatales para compartir fotografías y perfiles de líderes comunitarios, acusándolos de colaborar con grupos rivales o con el gobierno. Esto suele ocurrir principalmente en grupos de WhatsApp cerrados creados por residentes bajo presión de actores armados, donde se comparten mensajes intimidantes y acusaciones infundadas. En Facebook, perfiles anónimos o falsos amplifican este contenido. Estas «listas negras digitales», vinculadas a amenazas, desplazamiento forzado y asesinatos selectivos, son la base de un sistema de control que podría acelerarse y automatizarse mediante IA.

Estos casos demuestran cómo la IA se está introduciendo gradualmente en el conflicto armado colombiano, donde tecnologías accesibles, análisis de datos y automatización parcial refuerzan y amplifican estructuras preexistentes de violencia. Hacen que la vigilancia sea más eficiente, la desinformación más rápida y la intervención estatal potencialmente más desigual. En este contexto, el riesgo no es solo que el conflicto evolucione hacia una guerra dominada por sistemas autónomos; el peligro más inmediato es que estas herramientas terminen reforzando las mismas disparidades regionales y sociales que han alimentado la violencia durante décadas.