O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.
Em 28 de fevereiro de 2026, o presidente Donald Trump anunciou que estava instruindo todas as agências federais a “cessar imediatamente” o uso das ferramentas de IA da Anthropic. Essa diretiva decorre de tensões contínuas com a empresa de IA sobre o uso militar de sua tecnologia. Trump criticou a Anthropic em uma postagem no Truth Social, afirmando: “Os malucos de esquerda na Anthropic cometeram um ERRO DESASTROSO ao tentar FORÇAR o Departamento de Guerra.”O conflito escalou após o Departamento de Defesa buscar modificar um acordo de julho de 2025 com a Anthropic e outras empresas, visando permitir “todo uso legal” de IA e eliminar restrições. A Anthropic objetou, argumentando que tais mudanças poderiam habilitar armas letais totalmente autônomas ou vigilância em massa sobre cidadãos americanos. O Pentágono mantém que não usa IA nessas formas e não planeja fazê-lo. A Anthropic foi o primeiro grande laboratório de IA a se associar ao exército por meio de um acordo de US$ 200 milhões no ano passado, desenvolvendo modelos personalizados como Claude Gov para sistemas classificados, acessíveis via plataformas Palantir e Amazon. Esses modelos suportam tarefas como redação de relatórios, resumo de documentos, análise de inteligência e planejamento militar.O secretário de Defesa Pete Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, no início daquela semana, dando à empresa até sexta-feira para concordar com os termos revisados. Hegseth elogiou os produtos da Anthropic, mas orientou o Pentágono a designá-la como “risco na cadeia de suprimentos” após o fracasso das negociações, gerando preocupações no Vale do Silício sobre acesso mais amplo à sua IA. A Anthropic respondeu com firmeza, afirmando: “Nenhuma quantidade de intimidação ou punição do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas.” A empresa planeja contestar a designação na justiça.Em contraste, a OpenAI chegou a um acordo com o Departamento de Defesa no mesmo dia para implantar seus modelos em redes classificadas, incorporando princípios de segurança contra vigilância em massa e armas autônomas. O CEO Sam Altman observou no X que o acordo inclui salvaguardas técnicas e respeito mútuo pela segurança. O especialista Michael Horowitz descreveu a disputa da Anthropic como desnecessária, focada em casos de uso teóricos em vez de atuais.O desacordo público se intensificou após relatos de que líderes militares dos EUA usaram Claude para planejar uma operação para capturar o presidente da Venezuela, Nicolás Maduro, embora a Anthropic tenha negado interferir.