«Cada vez más personas están tomando conciencia de los peligros y desafíos asociados con la inteligencia artificial (IA). Espero que esto se traduzca en una orientación más ética y democrática de esta tecnología», observa el experto, el filósofo belga Mark Coeckelbergh, especialista en medios y tecnología en la Universidad de Viena, en una entrevista con el Centro de Información Regional de las Naciones Unidas en Bruselas.
Los expertos del Grupo Científico Internacional Independiente sobre IA ejercerán sus funciones durante tres años para avanzar en el conocimiento científico y garantizar que las deliberaciones internacionales se basen en los mejores datos disponibles.
Según el Secretario General de la ONU, António Guterres, «en un mundo donde la IA avanza a un ritmo frenético, este grupo cubrirá lo que hasta ahora faltaba: análisis científicos rigurosos e independientes que permitirán a todos los estados miembros, independientemente de sus capacidades tecnológicas, participar en igualdad de condiciones».
Mark Coeckelbergh es especialista en medios y tecnología.
Ha escrito varios libros en inglés sobre la IA. Demuestra que la trayectoria actual es perjudicial para la humanidad. ¿Por qué?
Mark Coeckelbergh: Tal como se está utilizando y desarrollando actualmente, la IA socava la democracia de múltiples maneras. Puede utilizarse para manipular a los votantes y a las elecciones de una manera sin precedentes. La personalización de las elecciones basada en los datos personales es también una novedad. Más preocupante aún, en mi opinión, es la puesta en peligro de los fundamentos de nuestras democracias. El principio de igualdad, por ejemplo, se ve minado por las fuertes asimetrías de poder entre los ciudadanos y los titulares de la riqueza digital. El principio de libertad se ve comprometido por los medios de vigilancia ahora disponibles. El tipo de entorno del conocimiento creado es también problemático. Ya no podemos distinguir lo verdadero de lo falso. La filósofa Hannah Arendt nos advirtió que aquel que busque controlar a los ciudadanos necesitará explotar la confusión. La propaganda se vuelve más efectiva, y esto podría llevar al totalitarismo. En la segunda parte del libro, muestro cómo podemos cambiar las cosas y modificar el entorno en el que se desarrolla la IA para utilizarla en beneficio de la democracia.
¿Cuál es el impacto de esta tecnología?
Mark Coeckelbergh: El libro trata sobre los Grandes Modelos de Lenguaje (GML) y su alcance filosófico. De repente, tenemos una herramienta capaz de producir texto, una capacidad hasta ahora reservada al ser humano. Según una tradición filosófica, somos definidos por el «logos», las palabras. Sin embargo, son las máquinas las que producen palabras. En este libro, reflexionamos sobre las implicaciones de esta evolución para la noción de autor, para el lenguaje y la comunicación. Cuando escribimos con GML, por ejemplo, está claro que ya no somos autores en el sentido tradicional. Entonces, ¿qué somos? ¿Y aún seguimos escribiendo? Estamos obligados a repensar lo que significa ser autor y escribir.
¿Cuál es el mayor riesgo en su opinión?
Mark Coeckelbergh: Me he centrado en los riesgos políticos, pero también hay un riesgo importante, de naturaleza más psicológica, relacionado con el fenómeno de la adicción y nuestra dependencia de la tecnología. El riesgo no radica tanto en una toma de conciencia o un dominio de la IA, sino más bien en riesgos muy concretos para la educación y la exposición de personas vulnerables, como niños, personas con trastornos mentales o personas muy aisladas. Estos problemas se intensificarán a medida que los chatbots se vuelvan más convincentes y comiencen a imitar a una persona.
¿Cómo modifica la IA nuestra percepción de la verdad?
La IA facilita la desinformación. Entonces, se vuelve difícil distinguir la verdad de la mentira. Cualquier información puede ser falsa. Cualquier cita, video o grabación de sonido puede ser falsificada. Esta confusión es peligrosa para la democracia.
En un contexto de falta de gobernanza global de la IA, ¿este grupo de expertos podrá formular recomendaciones vinculantes?
Mark Coeckelbergh: Una muy buena pregunta. El trabajo del grupo de expertos y los órganos consultivos es esencial, incluso en un contexto donde el multilateralismo está siendo cuestionado. En el marco de mis propias investigaciones, he abogado por una gobernanza global de la IA, establecido directrices y proporcionado orientación. Aunque es poco probable que se adopten reglas vinculantes pronto, es importante estar preparados. El grupo de expertos se percibe principalmente como un órgano científico. Por lo tanto, se dará menos importancia a la gobernanza que a la experiencia científica. Por supuesto, contribuiré con mi experiencia en ética de la IA en todas estas cuestiones.
¿Utiliza las redes sociales?
Mark Coeckelbergh: Sí, por supuesto. Como académico, es fundamental hacerse conocer y publicar resultados. Personalmente, también utilizo las redes sociales para mantenerme en contacto.
¿Cuál es el último ejemplo de desinformación que le impactó?
Mark Coeckelbergh: Lo que más me llama la atención es que, por ejemplo, en la plataforma X (anteriormente Twitter), Elon Musk parece favorecer ciertos discursos y censurar opiniones que no le gustan. Observo que es una herramienta de propaganda muy eficaz en la actualidad. De hecho, esta es una de las razones por las que escribí un artículo titulado «tecnofascismo».
¿Hay motivos de esperanza para el futuro de la IA?
Mark Coeckelbergh: Sí, veo que cada vez más personas están tomando conciencia de los peligros y desafíos asociados con la IA. Espero que esto se traduzca en una orientación más ética y democrática de esta tecnología. La IA debería ser una tecnología que beneficie a todos».





