Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagem gerada por IA

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

Imagem gerada por IA

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

Em 25 de fevereiro de 2026, o secretário de Defesa dos EUA, Pete Hegseth, convocou o CEO da Anthropic, Dario Amodei, a Washington para discussões sobre as políticas de uso de IA da empresa. Hegseth exigiu que a Anthropic permitisse que seu modelo Claude fosse usado em todas as aplicações militares legais, incluindo áreas potencialmente sensíveis como vigilância em massa e missões letais sem supervisão humana direta. A Anthropic expressou preocupações sobre a confiabilidade dos modelos de IA atuais para tais usos, oferecendo em vez disso aplicar suas políticas de uso padrão a contratos governamentais enquanto proíbe aplicações como armas autônomas ou vigilância doméstica sem envolvimento humano. Hegseth estabeleceu um prazo para sexta-feira, 27 de fevereiro, alertando que o não cumprimento poderia levar à invocação da Defense Production Act, designação da Anthropic como risco na cadeia de suprimentos e exclusão de contratos do Departamento de Defesa. A empresa tem um contrato de US$ 200 milhões com o Pentágono, e o Claude tem sido utilizado em operações classificadas, como a captura do líder venezuelano Nicolás Maduro em janeiro de 2026 em colaboração com a Palantir. No mesmo dia, a Anthropic anunciou modificações em sua Responsible Scaling Policy, afastando-se de compromissos rígidos para interromper o treinamento de modelos a menos que a segurança pudesse ser garantida antecipadamente. A política atualizada adota uma abordagem relativa, enfatizando relatórios de risco e roteiros de segurança de fronteira para fornecer transparência. A Anthropic citou um 'problema de ação coletiva' no cenário competitivo de IA, notando que pausas unilaterais desvantajariam desenvolvedores responsáveis enquanto outros avançam sem mitigação. O diretor científico Jared Kaplan afirmou: 'Sentimos que não ajudaria ninguém de verdade se parássemos de treinar modelos de IA', destacando o ritmo rápido do progresso da indústria. Chris Painter, da METR, descreveu a mudança como compreensível, mas alertou para um possível efeito de 'ferver a rã', onde medidas de segurança flexíveis poderiam se erodir ao longo do tempo. A Anthropic mantém que está envolvida em negociações de boa-fé para apoiar a segurança nacional de forma responsável. O Pentágono também está negociando com rivais como OpenAI, Google e xAI para integrar suas tecnologias em sistemas militares.

O que as pessoas estão dizendo

Usuários do X expressam predominantemente alarme e críticas ao ultimato do secretário de Defesa Pete Hegseth à Anthropic, apoiando as salvaguardas da empresa contra IA para armas autônomas e vigilância em massa. Postagens de alto engajamento detalham ameaças de invocação da Defense Production Act e notam o timing com o relaxamento da Responsible Scaling Policy da Anthropic. Sentimentos incluem indignação com a pressão governamental, ceticismo sobre compromissos de segurança e reportagens neutras de jornalistas.

Artigos relacionados

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Imagem gerada por IA

Trump orders US agencies to halt use of Anthropic AI technology

Reportado por IA Imagem gerada por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

A Anthropic estendeu sua capacidade de memória para o nível gratuito do seu chatbot de IA Claude, permitindo que os usuários façam referência a conversas passadas. A empresa também lançou uma ferramenta para importar memórias de chatbots concorrentes como ChatGPT e Gemini. Esta atualização coincide com o aumento de popularidade do Claude em meio a uma disputa com o Departamento de Defesa dos EUA.

Reportado por IA

A Anthropic lançou um plugin jurídico para sua ferramenta Claude Cowork, provocando preocupações entre provedores dedicados de IA jurídica. O plugin oferece recursos úteis para revisão de contratos e conformidade, mas fica aquém de substituir plataformas especializadas. Empresas sul-africanas enfrentam obstáculos adicionais devido a regulamentações de proteção de dados.

O servidor Git MCP oficial da Anthropic continha vulnerabilidades de segurança preocupantes que podiam ser encadeadas para impactos graves. Os problemas foram destacados em um relatório recente da TechRadar. Detalhes surgiram sobre riscos potenciais à infraestrutura da empresa de IA.

Reportado por IA

A atualização recente da Anthropic à sua plataforma CoWork levou a reações significativas de mercado na indústria de software. O setor de software dos EUA registrou uma venda generalizada, perdendo mais de 1 trilhão de dólares em valor, segundo a Fortune. Esse desenvolvimento destaca a incerteza dos investidores em torno de fluxos de trabalho nativos em IA e seu impacto nas ações de SaaS.

domingo, 01 de março de 2026, 08:19h

App Claude AI lidera App Store em meio a reação contra proibição do governo dos EUA

sábado, 28 de fevereiro de 2026, 15:28h

Trump ordena proibição federal ao uso da IA da Anthropic no governo

sexta-feira, 27 de fevereiro de 2026, 12:24h

Funcionários do Google e OpenAI assinam carta de apoio à Anthropic contra o Pentágono

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump ordena que agências federais parem de usar IA da Anthropic

quinta-feira, 26 de fevereiro de 2026, 21:33h

Anthropic aposenta Claude 3 Opus e concede a ele um newsletter no Substack

quarta-feira, 11 de fevereiro de 2026, 08:43h

Anthropic expande o nível gratuito do Claude com novos recursos

quinta-feira, 05 de fevereiro de 2026, 02:31h

Anthropic e OpenAI lançam ferramentas de gestão de agentes de IA

segunda-feira, 29 de dezembro de 2025, 20:12h

AI agents arrived in 2025

sexta-feira, 26 de dezembro de 2025, 01:16h

Comentário pede fim à antropomorfização da IA

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar