Uma juíza federal em São Francisco emitiu uma liminar em 27 de março de 2026, bloqueando a designação da administração Trump que classificava a empresa de IA Anthropic como um risco à cadeia de suprimentos militar — um rótulo aplicado três semanas antes em meio a disputas sobre as limitações da empresa em seus modelos de IA Claude para usos militares, como armas autônomas.
Após a designação da Anthropic pelo Pentágono em 4 de março como um "risco à cadeia de suprimentos" — decorrente de negociações fracassadas sobre restrições contratuais do Claude AI para armas totalmente autônomas e vigilância em massa —, a juíza distrital dos EUA Rita Lin considerou a ação arbitrária, caprichosa e uma "clássica retaliação à Primeira Emenda".
A designação teria restringido contratos governamentais com a empresa de IA do Vale do Silício, que enfatiza salvaguardas de segurança. Em sua decisão de 42 páginas, Lin suspendeu a medida enquanto aguarda uma revisão mais aprofundada.
O subsecretário de Guerra, Emil Michael, criticou a decisão nas redes sociais, alegando que ela contém erros factuais, foi tomada com pressa em meio a um conflito e mina o papel do presidente como Comandante em Chefe, chamando-a de "uma desgraça". O secretário de Guerra, Pete Hegseth, havia argumentado anteriormente que fornecedores não podem ditar o uso militar da tecnologia.
O CEO da Anthropic, Dario Amodei, havia indicado planos de contestar a designação judicialmente. A juíza Lin tem experiência anterior em casos relacionados, como o bloqueio de cortes de verbas na UCLA devido a preocupações com antissemitismo.
A decisão ressalta as tensões contínuas entre os limites éticos das empresas de IA e as demandas de segurança nacional. Esta é parte da série 'Controvérsia sobre o risco à cadeia de suprimentos da Anthropic'.