El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.
El 28 de febrero de 2026, el presidente Donald Trump anunció que estaba instruyendo a todas las agencias federales a «cesar inmediatamente» el uso de las herramientas de IA de Anthropic. Esta directiva surge de tensiones continuas con la empresa de IA sobre el despliegue militar de su tecnología. Trump criticó a Anthropic en una publicación en Truth Social, afirmando: «Los chalados de izquierda en Anthropic han cometido un ERROR DESASTROSO al intentar PRESIONAR al Departamento de Guerra».El conflicto se intensificó después de que el Departamento de Defensa buscara modificar un acuerdo de julio de 2025 con Anthropic y otras empresas, con el objetivo de permitir el «uso legal» de la IA y eliminar restricciones. Anthropic se opuso, argumentando que tales cambios podrían habilitar armas letales completamente autónomas o vigilancia masiva sobre ciudadanos estadounidenses. El Pentágono mantiene que no utiliza la IA de estas maneras y no tiene planes de hacerlo. Anthropic fue el primer gran laboratorio de IA en asociarse con el ejército mediante un acuerdo de 200 millones de dólares el año pasado, desarrollando modelos personalizados como Claude Gov para sistemas clasificados, accesibles a través de las plataformas Palantir y Amazon. Estos modelos respaldan tareas como la redacción de informes, resumen de documentos, análisis de inteligencia y planificación militar.El secretario de Defensa Pete Hegseth se reunió con el CEO de Anthropic, Dario Amodei, a principios de esa semana, dando a la empresa hasta el viernes para aceptar los términos revisados. Hegseth elogió los productos de Anthropic, pero dirigió al Pentágono a designarla como «riesgo en la cadena de suministro» después de que las conversaciones se rompieran, generando preocupaciones en Silicon Valley sobre un acceso más amplio a su IA. Anthropic respondió con firmeza, declarando: «Ninguna cantidad de intimidación o castigo del Departamento de Guerra cambiará nuestra posición sobre la vigilancia masiva doméstica o las armas completamente autónomas». La empresa planea impugnar la designación en los tribunales.En contraste, OpenAI llegó a un acuerdo con el Departamento de Defensa el mismo día para desplegar sus modelos en redes clasificadas, incorporando principios de seguridad contra la vigilancia masiva y armas autónomas. El CEO Sam Altman señaló en X que el acuerdo incluye salvaguardas técnicas y respeto mutuo por la seguridad. El experto Michael Horowitz describió la disputa de Anthropic como innecesaria, centrada en casos de uso teóricos en lugar de actuales.El desacuerdo público se intensificó tras informes de que líderes militares estadounidenses utilizaron Claude para planificar una operación para capturar al presidente de Venezuela, Nicolás Maduro, aunque Anthropic negó interferir.