O presidente dos EUA, Donald Trump, determinou que as agências federais cessem imediatamente o uso da IA Claude da Anthropic, após a recusa da empresa em permitir seu emprego para vigilância em massa ou armas autônomas. A ordem inclui um período de transição de seis meses. Essa decisão decorre de confrontos contínuos entre a Anthropic e o Departamento de Defesa sobre restrições à IA.
Na sexta-feira, 27 de fevereiro de 2026, o presidente Donald Trump anunciou por meio de sua plataforma Truth Social que está instruindo todas as agências federais a «CESTAR IMEDIATAMENTE» o uso das ferramentas de IA da Anthropic. Ele descreveu a empresa como uma «EMPRESA RADICAL DE ESQUERDA, WOKE» e especificou um período de fase de saída de seis meses para agências como o Departamento de Defesa. nnA ordem segue semanas de tensão entre a Anthropic e autoridades governamentais em relação a aplicações militares de inteligência artificial. A IA Claude da Anthropic é amplamente utilizada no Pentágono, incluindo em sistemas classificados. A administração Trump tem pressionado por seu uso em «qualquer propósito legal», mas o contrato da Anthropic proíbe o implantação para vigilância doméstica em massa de americanos ou sistemas de armas ofensivas totalmente autônomas sem intervenção humana. nnNo início desta semana, o secretário de Defesa Pete Hegseth informou ao CEO da Anthropic, Dario Amodei, que invocaria poderes raramente usados para compelir a remoção dessas restrições ou designar a empresa como risco na cadeia de suprimentos, potencialmente proibindo seu uso pelo governo e contratados de defesa. Hegseth estabeleceu um prazo de sexta-feira para conformidade. nnEm resposta, Amodei afirmou que a empresa, fundada com foco na segurança da IA, «não pode, de boa consciência, aceder ao [pedido do Pentágono]». Ele expressou preocupações de que uma IA poderosa poderia permitir vigilância em massa ao montar dados dispersos em perfis abrangentes da vida das pessoas em escala. nnMichael Pastor, decano dos programas de direito tecnológico na New York Law School, observou que a Anthropic está justificada em buscar clareza sobre «propósitos legais», adicionando que a relutância em especificar sobre vigilância levanta preocupações válidas. nnA posição da Anthropic alinha-se com políticas semelhantes em outras empresas; o CEO da OpenAI, Sam Altman, teria afirmado em um memorando interno que sua empresa mantém as mesmas linhas vermelhas contra vigilância em massa e armas autônomas. Funcionários do Google e da OpenAI circularam uma petição instando suas empresas a apoiarem a posição da Anthropic, alertando contra a estratégia do Pentágono de dividir por meio do medo. nnClaude permanece o sistema de IA mais amplamente usado pelo exército dos EUA, com alternativas potenciais incluindo ferramentas da OpenAI, Google ou xAI.