A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.
O conflito entre a Anthropic e o Departamento de Defesa dos EUA escalou no final de fevereiro de 2026, quando o Pentágono buscou acesso mais amplo ao modelo Claude AI da Anthropic para “todos os fins legais”. A Anthropic recusou-se a remover salvaguardas que proíbem seu uso para vigilância doméstica em massa ou sistemas de armas totalmente autônomas sem supervisão humana. Em 26 de fevereiro, o CEO Dario Amodei afirmou que a IA poderosa permite a montagem de dados dispersos em perfis abrangentes de indivíduos em escala massiva, sublinhando as preocupações da empresa. nnAté 27 de fevereiro, após a Anthropic recusar-se a alterar seus termos, o Secretário de Defesa Pete Hegseth ameaçou designar a empresa como risco na cadeia de suprimentos e cancelar seu contrato de 200 milhões de dólares. O Presidente Donald Trump então ordenou que todas as agências federais cessassem o uso da tecnologia da Anthropic. O Pentágono formalizou a designação no final do mês passado, levando a Anthropic a entrar com ação em 9 de março no tribunal federal. A ação descreve as medidas como uma “campanha de retaliação sem precedentes e ilegal”, afirmando que “a Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida”. nnFuncionários do Pentágono sustentam que a questão é irrelevante, pois leis atuais proíbem tal vigilância e o departamento não tem planos para armas autônomas. No entanto, especialistas como Hamza Chaudhry, do Future of Life Institute, chamaram isso de “um vácuo real de governança” e um alerta para o Congresso promulgar regulamentações claras. Greg Nojeim, do Center for Democracy and Technology, observou que modelos de IA “não são confiáveis o suficiente” para armas totalmente autônomas, criticando o Pentágono por rejeitar conselhos de especialistas. nnEm resposta, o Pentágono fechou um acordo com a OpenAI, que incluiu disposições contra vigilância doméstica de pessoas dos EUA. O CEO da OpenAI, Sam Altman, confirmou que a ferramenta não seria usada por agências de inteligência. Mais de 30 funcionários da OpenAI e do Google, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, apresentaram um breve amicus apoiando a Anthropic em 9 de março. Apesar da disputa, a Anthropic continua fornecendo seus modelos ao exército a custo nominal, incluindo uso na guerra em curso no Irã. Amodei enfatizou o compromisso da empresa com a segurança nacional enquanto busca resolução legal.