Una jueza federal de San Francisco emitió una medida cautelar el 27 de marzo de 2026, bloqueando la designación de la administración Trump que calificaba a la empresa de IA Anthropic como un riesgo para la cadena de suministro militar; una etiqueta aplicada tres semanas antes en medio de disputas sobre las restricciones de la firma en sus modelos de IA Claude para usos militares como armas autónomas.
Tras la designación del Pentágono del 4 de marzo que etiquetaba a Anthropic como un "riesgo para la cadena de suministro" —derivada de la ruptura de negociaciones sobre restricciones contractuales para el uso de Claude AI en armas totalmente autónomas y vigilancia masiva—, la jueza de distrito de EE. UU. Rita Lin dictaminó que la medida fue arbitraria, caprichosa y un "clásico caso de represalia bajo la Primera Enmienda".
La designación habría restringido los contratos gubernamentales con la empresa de IA de Silicon Valley, que hace hincapié en las salvaguardas de seguridad. En su orden de 42 páginas, Lin suspendió la medida a la espera de una revisión adicional.
El subsecretario de Guerra, Emil Michael, criticó el fallo en las redes sociales calificándolo de "una vergüenza", alegando que contenía errores fácticos, fue apresurado en medio del conflicto y socava el papel del presidente como comandante en jefe. El secretario de Guerra, Pete Hegseth, había argumentado previamente que los proveedores no pueden dictar el uso militar de la tecnología.
El director ejecutivo de Anthropic, Dario Amodei, había indicado planes para impugnar legalmente la designación. La jueza Lin cuenta con experiencia previa en casos relacionados, como el bloqueo de recortes de fondos a la UCLA por preocupaciones sobre antisemitismo.
El fallo subraya las tensiones actuales entre los límites éticos de las empresas de IA y las demandas de seguridad nacional. Esto forma parte de la serie 'Controversia sobre el riesgo de la cadena de suministro de Anthropic'.