Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagem gerada por IA

O Pentágono contesta os limites do Anthropic para o uso militar do Claude, à medida que as negociações sobre o contrato se tornam tensas

Imagem gerada por IA
Verificado

Depois que o CEO da Anthropic, Dario Amodei, disse no final de fevereiro que a empresa não permitiria que seu modelo Claude fosse usado para vigilância doméstica em massa ou para armas totalmente autônomas, altos funcionários do Pentágono disseram que não têm intenção de usar IA para vigilância doméstica e insistem que as empresas privadas não podem estabelecer limites obrigatórios sobre como os militares dos EUA empregam ferramentas de IA.

Em julho passado, o diretor de inteligência digital e artificial do Pentágono, Doug Matty, anunciou a concessão de contratos de até US$ 200 milhões cada para quatro empresas de tecnologia - Anthropic, Google, OpenAI e xAI - para fornecer modelos avançados de IA para missões do Departamento de Defesa. Matty disse que o departamento pretendia acelerar a adoção da IA comercial para "tarefas essenciais de missão conjunta" no "domínio de combate", mas o Pentágono divulgou poucos detalhes operacionais, citando a segurança nacional.

Os prêmios relativamente opacos chamaram nova atenção no final de fevereiro, quando a Anthropic disse que estava insistindo em limites para a Claude em um "conjunto restrito de casos". Em uma declaração de 26 de fevereiro, Amodei disse que apoiava fortemente o uso de IA para ajudar a defender os Estados Unidos e outras democracias, mas argumentou que algumas aplicações poderiam minar os valores democráticos - incluindo "vigilância doméstica em massa" e "armas totalmente autônomas", que ele descreveu como drones de combate autoguiados.

Autoridades sênior do Departamento de Defesa responderam contestando tanto a premissa quanto a vantagem da empresa. De acordo com uma reportagem citada pelo The Nation, as autoridades do Pentágono disseram que não pretendem usar IA para vigilância doméstica e que os sistemas de armas não tripuladas permanecerão sob supervisão humana. Mas eles também argumentaram que as empreiteiras não deveriam poder impor suas próprias condições de liberdade civil nas operações do Pentágono. Emil Michael, subsecretário de defesa para pesquisa e engenharia, foi citado como tendo dito: "Não permitiremos que nenhuma empresa BigTech decida sobre as liberdades civis dos americanos".

O The Nation relatou que, durante as negociações, Michael também levantou uma questão separada sobre se a Anthropic se oporia ao uso do Claude em missões relacionadas à energia nuclear, como defesa de mísseis, e que Amodei não se opôs a esse uso.

A disputa destacou uma tensão mais ampla entre o esforço do Pentágono para integrar a IA generativa à inteligência, ao direcionamento e ao desenvolvimento de armas - e as proteções que as empresas de IA dizem precisar para evitar o uso indevido. O The Nation destacou os esforços de longa data do Departamento de Defesa, como o Projeto Maven, que começou usando a IA para ajudar a analisar vídeos de drones em busca de alvos em potencial, e a iniciativa Collaborative Operations in Denied Environment (CODE) da DARPA, que trabalhou na autonomia de grupos de drones que operam sob regras predefinidas.

A política oficial do Pentágono sobre autonomia está descrita na Diretiva 3000.09 do DoD, que afirma que as armas autônomas e semiautônomas devem ser projetadas para que os comandantes e operadores possam exercer "níveis apropriados de julgamento humano sobre o uso da força". Os críticos argumentaram que a flexibilidade da política ainda deixa espaço para a autonomia que poderia reduzir significativamente o controle humano em tempo real.

À medida que a IA se torna mais integrada ao planejamento e às operações militares, o impasse entre a Anthropic e o Pentágono ressalta uma questão não resolvida no centro da expansão da IA das Forças Armadas dos EUA: como conciliar a rápida adoção de sistemas comerciais com as demandas por limites aplicáveis à vigilância doméstica e à delegação de força letal às máquinas.

O que as pessoas estão dizendo

As discussões do X revelam uma divisão na disputa entre o Pentágono e a Anthropic sobre os limites da Claude AI. Os defensores da Anthropic elogiam sua postura ética contra a vigilância em massa e as armas autônomas, considerando a lista negra do Pentágono como um exagero. Os críticos argumentam que as empresas privadas não podem impor restrições ao uso militar e que termos contratuais simples são suficientes. Publicações neutras detalham o impasse, os prazos e as escaladas legais, contrastando com a conformidade da OpenAI. Os relatos de alto engajamento de jornalistas e analistas destacam as tensões entre a segurança nacional e a segurança da IA.

Artigos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Reportado por IA Imagem gerada por IA Verificado

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Reportado por IA

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

segunda-feira, 20 de abril de 2026, 20:41h

Anthropic's Mythos AI model sparks hacking fears

quarta-feira, 08 de abril de 2026, 23:36h

Anthropic launches Claude Managed Agents for AI builders

domingo, 05 de abril de 2026, 04:58h

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

segunda-feira, 09 de março de 2026, 14:38h

Anthropic sues US defense department over supply chain risk designation

domingo, 01 de março de 2026, 08:19h

Claude AI app tops App Store amid backlash to US government ban

sábado, 28 de fevereiro de 2026, 15:28h

Trump orders federal ban on Anthropic AI for government use

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump orders federal agencies to stop using Anthropic's AI

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentagon pressures Anthropic to weaken AI safety commitments

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar