Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentágono designa Anthropic um ‘risco na cadeia de suprimentos’ após disputa sobre limites de uso militar para Claude AI

Imagem gerada por IA
Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

Negociações entre o Pentágono e a Anthropic escalaram nas últimas semanas, enquanto autoridades de defesa buscavam termos contratuais que permitissem ao exército usar os modelos de IA da Anthropic para todos os propósitos legais.  nnDe acordo com o The Daily Wire, a Anthropic estava disposta a continuar fornecendo acesso aos seus modelos, mas insistiu em duas exceções: proibir o uso em sistemas de armas totalmente autônomas e proibir o uso para vigilância doméstica em massa. O veículo informou que a administração Biden aceitou esses termos em um contrato de 2024, mas a administração Trump moveu-se para reabrir a questão.  nnUm alto funcionário de tecnologia do Pentágono, Emil Michael — identificado pelo The Daily Wire como o subsecretário da administração Trump responsável pela disputa —, criticou o que disse serem restrições incorporadas em acordos anteriores. “Eu examinei os contratos e fiquei tipo, nossa. Você não pode usá-los para planejar um ataque cinético. Você não pode usar o modelo de IA deles para mover um satélite”, disse ele, de acordo com o The Daily Wire. Michael acrescentou que queria “termos de serviço” que considerava compatíveis com a missão do departamento.  nnO The Daily Wire também informou que a Anthropic propôs exceções limitadas — como uso no planejamento de um enxame de drones ou resposta a um míssil hipersônico chinês —, mas Michael disse que essas exceções não eram suficientes. Ele também expressou preocupações de que restrições baseadas em políticas pudessem criar riscos operacionais se um fornecedor cortasse o serviço durante uma missão.  nnA disputa culminou quando o Pentágono disse que havia “oficialmente informado a liderança da Anthropic de que a empresa e seus produtos são considerados um risco na cadeia de suprimentos, com efeito imediato”, de acordo com uma reportagem da Associated Press citando um comunicado do Pentágono.  nnO CEO da Anthropic, Dario Amodei, disse que a empresa não acredita que a designação seja legalmente válida e planeja contestá-la na justiça, informou a AP. Em um comunicado publicado pela Anthropic em 5 de março de 2026, Amodei disse que a empresa recebeu uma carta em 4 de março confirmando a designação e argumentou que o escopo prático da ação é estreito sob o estatuto citado, aplicando-se apenas ao uso do Claude “como parte direta” de contratos do Departamento de Defesa — não a todo uso de clientes.  nnO secretário de Defesa Pete Hegseth argumentou publicamente que fornecedores não deveriam poder restringir o uso legal de tecnologia pelo exército, uma visão ecoada no comunicado do Pentágono à AP de que o exército “não permitirá que um fornecedor se insira na cadeia de comando restringindo o uso legal de uma capacidade crítica e colocando nossos combatentes em risco”.  nnSeparadamente, o The Daily Wire informou que o conselheiro de IA da administração Trump, David Sacks, criticou o que descreveu como laços da era Biden entre funcionários de políticas de IA e a Anthropic, e nomeou os ex-funcionários Biden Elizabeth Kelly e Benjamin Merkel como agora trabalhando na empresa. O The Daily Wire também informou que a Anthropic disse ter nomeado o ex-funcionário da administração Trump Chris Liddell para seu conselho.  nnO impacto legal e prático mais amplo da designação de “risco na cadeia de suprimentos” permanece contestado. Analistas jurídicos e críticos argumentaram que a autoridade invocada é mais estreita do que algumas alegações públicas sobre uma proibição geral a empreiteiros fazendo qualquer negócio com a Anthropic, enquanto a Anthropic disse que a carta do Pentágono reflete uma aplicação limitada ligada a contratos de defesa específicos.  nnAo noticiar a disputa, a AP disse que o confronto centra-se na insistência da Anthropic de que sua tecnologia não seja usada para vigilância em massa de americanos ou armas totalmente autônomas — barreiras que a empresa argumenta serem necessárias mesmo enquanto diz que a tomada de decisões operacionais deve permanecer com o exército.  

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic sues US defense department over supply chain risk designation

Reportado por IA Imagem gerada por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Reportado por IA

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Reportado por IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar