El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.
Las negociaciones entre el Pentágono y Anthropic se intensificaron en las últimas semanas, ya que funcionarios de defensa buscaban términos contractuales que permitieran al ejército usar los modelos de IA de Anthropic para todos los fines legales. nnSegún The Daily Wire, Anthropic estaba dispuesta a seguir proporcionando acceso a sus modelos, pero insistió en dos excepciones: prohibir su uso en sistemas de armas completamente autónomas y prohibir su uso para vigilancia masiva doméstica. El medio informó que la administración Biden aceptó esos términos en un contrato de 2024, pero la administración Trump decidió reabrir la cuestión. nnUn alto funcionario de tecnología del Pentágono, Emil Michael —identificado por The Daily Wire como el subsecretario de la administración Trump que supervisaba la disputa—, criticó lo que describió como restricciones incorporadas en acuerdos previos. «Revisé los contratos y dije: madre mía. No se pueden usar para planificar un ataque cinético. No se puede usar su modelo de IA para mover un satélite», dijo, según The Daily Wire. Michael añadió que quería «términos de servicio» que consideraba compatibles con la misión del departamento. nnThe Daily Wire también informó que Anthropic propuso excepciones limitadas —como su uso en la planificación de un enjambre de drones o en la respuesta a un misil hipersónico chino—, pero Michael dijo que esas excepciones no eran suficientes. También expresó preocupación por que las restricciones basadas en políticas pudieran crear riesgos operativos si un proveedor cortara el servicio durante una misión. nnLa disputa culminó cuando el Pentágono dijo que había «informado oficialmente al liderazgo de Anthropic que la empresa y sus productos se consideran un riesgo en la cadena de suministro, con efecto inmediato», según un informe de Associated Press que cita un comunicado del Pentágono. nnEl CEO de Anthropic, Dario Amodei, dijo que la empresa no cree que la designación sea legalmente sólida y planea impugnarla en los tribunales, informó AP. En un comunicado publicado por Anthropic el 5 de marzo de 2026, Amodei dijo que la empresa recibió una carta el 4 de marzo confirmando la designación y argumentó que el alcance práctico de la acción es estrecho según el estatuto citado, aplicándose solo al uso de Claude «como parte directa de» contratos del Departamento de Defensa, no a todo uso de clientes. nnEl secretario de Defensa Pete Hegseth ha argumentado públicamente que los proveedores no deberían poder restringir el uso legal de la tecnología por parte del ejército, una visión reflejada en el comunicado del Pentágono a AP en el que afirma que el ejército «no permitirá que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes». nnPor separado, The Daily Wire informó que el asesor de IA de la administración Trump, David Sacks, criticó lo que describió como lazos de la era Biden entre el personal de políticas de IA y Anthropic, y nombró a exfuncionarios de Biden Elizabeth Kelly y Benjamin Merkel como ahora trabajando en la empresa. The Daily Wire también informó que Anthropic dijo que había nombrado al exfuncionario de la administración Trump Chris Liddell en su junta directiva. nnEl impacto legal y práctico más amplio de la designación de «riesgo en la cadena de suministro» sigue siendo controvertido. Analistas legales y críticos han argumentado que la autoridad invocada es más estrecha que algunas afirmaciones públicas sobre una prohibición general a contratistas para hacer cualquier negocio con Anthropic, mientras que Anthropic ha dicho que la carta del Pentágono refleja una aplicación limitada vinculada a contratos de defensa específicos. nnEn su cobertura de la disputa, AP dijo que el enfrentamiento se centra en la insistencia de Anthropic de que su tecnología no se use para vigilancia masiva de estadounidenses o armas completamente autónomas, barreras de seguridad que la empresa argumenta que son necesarias incluso mientras dice que la toma de decisiones operativas debe permanecer en manos del ejército.