Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagem gerada por IA

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

Imagem gerada por IA

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

Em 25 de fevereiro de 2026, o secretário de Defesa dos EUA, Pete Hegseth, convocou o CEO da Anthropic, Dario Amodei, a Washington para discussões sobre as políticas de uso de IA da empresa. Hegseth exigiu que a Anthropic permitisse que seu modelo Claude fosse usado em todas as aplicações militares legais, incluindo áreas potencialmente sensíveis como vigilância em massa e missões letais sem supervisão humana direta. A Anthropic expressou preocupações sobre a confiabilidade dos modelos de IA atuais para tais usos, oferecendo em vez disso aplicar suas políticas de uso padrão a contratos governamentais enquanto proíbe aplicações como armas autônomas ou vigilância doméstica sem envolvimento humano. Hegseth estabeleceu um prazo para sexta-feira, 27 de fevereiro, alertando que o não cumprimento poderia levar à invocação da Defense Production Act, designação da Anthropic como risco na cadeia de suprimentos e exclusão de contratos do Departamento de Defesa. A empresa tem um contrato de US$ 200 milhões com o Pentágono, e o Claude tem sido utilizado em operações classificadas, como a captura do líder venezuelano Nicolás Maduro em janeiro de 2026 em colaboração com a Palantir. No mesmo dia, a Anthropic anunciou modificações em sua Responsible Scaling Policy, afastando-se de compromissos rígidos para interromper o treinamento de modelos a menos que a segurança pudesse ser garantida antecipadamente. A política atualizada adota uma abordagem relativa, enfatizando relatórios de risco e roteiros de segurança de fronteira para fornecer transparência. A Anthropic citou um 'problema de ação coletiva' no cenário competitivo de IA, notando que pausas unilaterais desvantajariam desenvolvedores responsáveis enquanto outros avançam sem mitigação. O diretor científico Jared Kaplan afirmou: 'Sentimos que não ajudaria ninguém de verdade se parássemos de treinar modelos de IA', destacando o ritmo rápido do progresso da indústria. Chris Painter, da METR, descreveu a mudança como compreensível, mas alertou para um possível efeito de 'ferver a rã', onde medidas de segurança flexíveis poderiam se erodir ao longo do tempo. A Anthropic mantém que está envolvida em negociações de boa-fé para apoiar a segurança nacional de forma responsável. O Pentágono também está negociando com rivais como OpenAI, Google e xAI para integrar suas tecnologias em sistemas militares.

O que as pessoas estão dizendo

Usuários do X expressam predominantemente alarme e críticas ao ultimato do secretário de Defesa Pete Hegseth à Anthropic, apoiando as salvaguardas da empresa contra IA para armas autônomas e vigilância em massa. Postagens de alto engajamento detalham ameaças de invocação da Defense Production Act e notam o timing com o relaxamento da Responsible Scaling Policy da Anthropic. Sentimentos incluem indignação com a pressão governamental, ceticismo sobre compromissos de segurança e reportagens neutras de jornalistas.

Artigos relacionados

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagem gerada por IA

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

Reportado por IA Imagem gerada por IA Verificado

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

Reportado por IA

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar