O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.
Negociações entre o Pentágono e a Anthropic escalaram nas últimas semanas, enquanto autoridades de defesa buscavam termos contratuais que permitissem ao exército usar os modelos de IA da Anthropic para todos os propósitos legais. nnDe acordo com o The Daily Wire, a Anthropic estava disposta a continuar fornecendo acesso aos seus modelos, mas insistiu em duas exceções: proibir o uso em sistemas de armas totalmente autônomas e proibir o uso para vigilância doméstica em massa. O veículo informou que a administração Biden aceitou esses termos em um contrato de 2024, mas a administração Trump moveu-se para reabrir a questão. nnUm alto funcionário de tecnologia do Pentágono, Emil Michael — identificado pelo The Daily Wire como o subsecretário da administração Trump responsável pela disputa —, criticou o que disse serem restrições incorporadas em acordos anteriores. “Eu examinei os contratos e fiquei tipo, nossa. Você não pode usá-los para planejar um ataque cinético. Você não pode usar o modelo de IA deles para mover um satélite”, disse ele, de acordo com o The Daily Wire. Michael acrescentou que queria “termos de serviço” que considerava compatíveis com a missão do departamento. nnO The Daily Wire também informou que a Anthropic propôs exceções limitadas — como uso no planejamento de um enxame de drones ou resposta a um míssil hipersônico chinês —, mas Michael disse que essas exceções não eram suficientes. Ele também expressou preocupações de que restrições baseadas em políticas pudessem criar riscos operacionais se um fornecedor cortasse o serviço durante uma missão. nnA disputa culminou quando o Pentágono disse que havia “oficialmente informado a liderança da Anthropic de que a empresa e seus produtos são considerados um risco na cadeia de suprimentos, com efeito imediato”, de acordo com uma reportagem da Associated Press citando um comunicado do Pentágono. nnO CEO da Anthropic, Dario Amodei, disse que a empresa não acredita que a designação seja legalmente válida e planeja contestá-la na justiça, informou a AP. Em um comunicado publicado pela Anthropic em 5 de março de 2026, Amodei disse que a empresa recebeu uma carta em 4 de março confirmando a designação e argumentou que o escopo prático da ação é estreito sob o estatuto citado, aplicando-se apenas ao uso do Claude “como parte direta” de contratos do Departamento de Defesa — não a todo uso de clientes. nnO secretário de Defesa Pete Hegseth argumentou publicamente que fornecedores não deveriam poder restringir o uso legal de tecnologia pelo exército, uma visão ecoada no comunicado do Pentágono à AP de que o exército “não permitirá que um fornecedor se insira na cadeia de comando restringindo o uso legal de uma capacidade crítica e colocando nossos combatentes em risco”. nnSeparadamente, o The Daily Wire informou que o conselheiro de IA da administração Trump, David Sacks, criticou o que descreveu como laços da era Biden entre funcionários de políticas de IA e a Anthropic, e nomeou os ex-funcionários Biden Elizabeth Kelly e Benjamin Merkel como agora trabalhando na empresa. O The Daily Wire também informou que a Anthropic disse ter nomeado o ex-funcionário da administração Trump Chris Liddell para seu conselho. nnO impacto legal e prático mais amplo da designação de “risco na cadeia de suprimentos” permanece contestado. Analistas jurídicos e críticos argumentaram que a autoridade invocada é mais estreita do que algumas alegações públicas sobre uma proibição geral a empreiteiros fazendo qualquer negócio com a Anthropic, enquanto a Anthropic disse que a carta do Pentágono reflete uma aplicação limitada ligada a contratos de defesa específicos. nnAo noticiar a disputa, a AP disse que o confronto centra-se na insistência da Anthropic de que sua tecnologia não seja usada para vigilância em massa de americanos ou armas totalmente autônomas — barreiras que a empresa argumenta serem necessárias mesmo enquanto diz que a tomada de decisões operacionais deve permanecer com o exército.