O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.
Em 25 de fevereiro de 2026, o secretário de Defesa dos EUA, Pete Hegseth, convocou o CEO da Anthropic, Dario Amodei, a Washington para discussões sobre as políticas de uso de IA da empresa. Hegseth exigiu que a Anthropic permitisse que seu modelo Claude fosse usado em todas as aplicações militares legais, incluindo áreas potencialmente sensíveis como vigilância em massa e missões letais sem supervisão humana direta. A Anthropic expressou preocupações sobre a confiabilidade dos modelos de IA atuais para tais usos, oferecendo em vez disso aplicar suas políticas de uso padrão a contratos governamentais enquanto proíbe aplicações como armas autônomas ou vigilância doméstica sem envolvimento humano. Hegseth estabeleceu um prazo para sexta-feira, 27 de fevereiro, alertando que o não cumprimento poderia levar à invocação da Defense Production Act, designação da Anthropic como risco na cadeia de suprimentos e exclusão de contratos do Departamento de Defesa. A empresa tem um contrato de US$ 200 milhões com o Pentágono, e o Claude tem sido utilizado em operações classificadas, como a captura do líder venezuelano Nicolás Maduro em janeiro de 2026 em colaboração com a Palantir. No mesmo dia, a Anthropic anunciou modificações em sua Responsible Scaling Policy, afastando-se de compromissos rígidos para interromper o treinamento de modelos a menos que a segurança pudesse ser garantida antecipadamente. A política atualizada adota uma abordagem relativa, enfatizando relatórios de risco e roteiros de segurança de fronteira para fornecer transparência. A Anthropic citou um 'problema de ação coletiva' no cenário competitivo de IA, notando que pausas unilaterais desvantajariam desenvolvedores responsáveis enquanto outros avançam sem mitigação. O diretor científico Jared Kaplan afirmou: 'Sentimos que não ajudaria ninguém de verdade se parássemos de treinar modelos de IA', destacando o ritmo rápido do progresso da indústria. Chris Painter, da METR, descreveu a mudança como compreensível, mas alertou para um possível efeito de 'ferver a rã', onde medidas de segurança flexíveis poderiam se erodir ao longo do tempo. A Anthropic mantém que está envolvida em negociações de boa-fé para apoiar a segurança nacional de forma responsável. O Pentágono também está negociando com rivais como OpenAI, Google e xAI para integrar suas tecnologias em sistemas militares.