Inicio Noticias El antropocéntrico se niega a ceder ante el Pentágono en las garantías...

El antropocéntrico se niega a ceder ante el Pentágono en las garantías de IA a medida que el conflicto se acerca a la fecha límite

19
0

Un enfrentamiento público entre la administración Trump y Anthropic ha llegado a un punto muerto, ya que los funcionarios militares exigen que la empresa de inteligencia artificial flexibilice sus políticas éticas para el viernes o arriesgue dañar su negocio.

El CEO de Anthropic, Dario Amodei, trazó una línea roja clara 24 horas antes del plazo, declarando que su empresa «no puede, de buena fe, ceder» a la demanda final del Pentágono de permitir el uso ilimitado de su tecnología.

Anthropic, fabricante del chatbot Claude, puede permitirse perder un contrato de defensa. Pero el ultimátum de esta semana del Secretario de Defensa Pete Hegseth planteó riesgos más amplios en el apogeo del ascenso meteórico de la compañía desde un laboratorio de investigación poco conocido en ciencias de la computación en San Francisco hasta una de las startups más valiosas del mundo.

Si Amodei no cede, los funcionarios militares han advertido que no solo retirarán el contrato de Anthropic, sino que también los «considerarán un riesgo para la cadena de suministro», una designación que generalmente se estampa en adversarios extranjeros que podría descarrilar las asociaciones críticas de la empresa con otras empresas.

Y si Amodei cediera, podría perder la confianza de la floreciente industria de Inteligencia Artificial, especialmente el talento principal atraído a la empresa por sus promesas de construir AI mejor que humana de manera responsable que, sin salvaguardas, podría plantear riesgos catastróficos.

Anthropic dijo que buscaba garantías específicas del Pentágono de que Claude no se utilizará para la vigilancia masiva de los estadounidenses o en armas completamente autónomas. Pero después de que meses de conversaciones privadas explotaran en un debate público, dijo en un comunicado del jueves que el nuevo lenguaje del contrato «enmarcado como un compromiso fue acompañado de lenguaje legal que permitiría a esas salvaguardias ser ignoradas a voluntad».

Eso fue después de que Sean Parnell, el portavoz principal del Pentágono, publicara en las redes sociales que «no permitiremos que NINGUNA empresa dicte los términos sobre cómo tomamos decisiones operativas» y agregó que la empresa tiene «hasta las 5:01 p.m. ET del viernes para decidir» si cumplirá con las demandas o enfrentará consecuencias.

Emil Michael, el subsecretario de Defensa para Investigación e Ingeniería, más tarde criticó a Amodei, alegando que en X «tiene un complejo de Dios» y «no quiere más que tratar de controlar personalmente al Ejército de los EE. UU. y está dispuesto a poner en riesgo la seguridad de nuestra nación».

Ese mensaje no ha resonado en gran parte del Valle del Silicio, donde un número creciente de trabajadores tecnológicos de los principales rivales de Anthropic, OpenAI y Google, expresaron su apoyo a la postura de Amodei el jueves por la noche en una carta abierta.

OpenAI y Google, junto con xAI de Elon Musk, también tienen contratos para suministrar sus modelos de IA al ejército.

«El Pentágono está negociando con Google y OpenAI para tratar de que acepten lo que Anthropic ha rechazado», dice la carta abierta. «Están tratando de dividir a cada empresa con el temor de que la otra cederá».

También levantando preocupaciones sobre el enfoque del Pentágono estaban los legisladores republicanos y demócratas y un ex líder de las iniciativas de IA del Departamento de Defensa.

«Pintar un blanco sobre Anthropic atrae titulares picantes, pero todos pierden al final», escribió el general retirado de la Fuerza Aérea Jack Shanahan en una publicación en redes sociales.

Shanahan enfrentó una ola diferente de oposición de trabajadores tecnológicos durante la primera administración de Trump cuando lideró Maven, un proyecto para utilizar la tecnología de IA para analizar imágenes de drones y apuntar armas. Tantos empleados de Google protestaron por su participación en el Proyecto Maven en ese momento que el gigante tecnológico decidió no renovar el contrato y luego prometió no utilizar IA en armamento.

«Dado que estuve en el centro de Project Maven & Google, es razonable suponer que tomaría partido por el Pentágono aquí», escribió Shanahan el jueves en redes sociales. «Sin embargo, soy comprensivo con la posición de Anthropic. Más que con la de Google en 2018».

Dijo que Claude ya se está utilizando ampliamente en el gobierno, incluidos entornos clasificados, y las líneas rojas de Anthropic son «razonables». Dijo que los modelos de lenguaje de IA que impulsan a los chatbots como Claude tampoco están «listos para el horario estelar en entornos de seguridad nacional», especialmente no para armas completamente autónomas.

«No están tratando de jugar astutamente aquí», escribió.

Parnell afirmó el jueves que el Pentágono quiere «utilizar el modelo de Anthropic para todos los fines legales» y dijo que abrir el uso de la tecnología evitaría que la empresa «ponga en peligro operaciones militares críticas», aunque ni él ni otros funcionarios detallaron cómo quieren utilizar la tecnología.

El ejército «no tiene interés en utilizar la IA para llevar a cabo la vigilancia masiva de los estadounidenses (lo que es ilegal) ni queremos utilizar la IA para desarrollar armas autónomas que operen sin intervención humana», escribió Parnell.

Cuando Hegseth y Amodei se reunieron el martes, los funcionarios militares advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro, cancelar su contrato o invocar una ley de la era de la Guerra Fría llamada Ley de Producción de Defensa para dar al ejército una autoridad más amplia para utilizar sus productos, incluso si la empresa no lo aprueba.

Amodei dijo el jueves que «esas dos amenazas últimas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional». Dijo que espera que el Pentágono reconsidere dada la importancia de Claude para el ejército, pero, si no, Anthropic «trabajará para permitir una transición fluida a otro proveedor».

Derechos de autor © 2026 por The Associated Press. Todos los derechos reservados.