Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentágono designa Anthropic um ‘risco na cadeia de suprimentos’ após disputa sobre limites de uso militar para Claude AI

Imagem gerada por IA
Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

Negociações entre o Pentágono e a Anthropic escalaram nas últimas semanas, enquanto autoridades de defesa buscavam termos contratuais que permitissem ao exército usar os modelos de IA da Anthropic para todos os propósitos legais.  nnDe acordo com o The Daily Wire, a Anthropic estava disposta a continuar fornecendo acesso aos seus modelos, mas insistiu em duas exceções: proibir o uso em sistemas de armas totalmente autônomas e proibir o uso para vigilância doméstica em massa. O veículo informou que a administração Biden aceitou esses termos em um contrato de 2024, mas a administração Trump moveu-se para reabrir a questão.  nnUm alto funcionário de tecnologia do Pentágono, Emil Michael — identificado pelo The Daily Wire como o subsecretário da administração Trump responsável pela disputa —, criticou o que disse serem restrições incorporadas em acordos anteriores. “Eu examinei os contratos e fiquei tipo, nossa. Você não pode usá-los para planejar um ataque cinético. Você não pode usar o modelo de IA deles para mover um satélite”, disse ele, de acordo com o The Daily Wire. Michael acrescentou que queria “termos de serviço” que considerava compatíveis com a missão do departamento.  nnO The Daily Wire também informou que a Anthropic propôs exceções limitadas — como uso no planejamento de um enxame de drones ou resposta a um míssil hipersônico chinês —, mas Michael disse que essas exceções não eram suficientes. Ele também expressou preocupações de que restrições baseadas em políticas pudessem criar riscos operacionais se um fornecedor cortasse o serviço durante uma missão.  nnA disputa culminou quando o Pentágono disse que havia “oficialmente informado a liderança da Anthropic de que a empresa e seus produtos são considerados um risco na cadeia de suprimentos, com efeito imediato”, de acordo com uma reportagem da Associated Press citando um comunicado do Pentágono.  nnO CEO da Anthropic, Dario Amodei, disse que a empresa não acredita que a designação seja legalmente válida e planeja contestá-la na justiça, informou a AP. Em um comunicado publicado pela Anthropic em 5 de março de 2026, Amodei disse que a empresa recebeu uma carta em 4 de março confirmando a designação e argumentou que o escopo prático da ação é estreito sob o estatuto citado, aplicando-se apenas ao uso do Claude “como parte direta” de contratos do Departamento de Defesa — não a todo uso de clientes.  nnO secretário de Defesa Pete Hegseth argumentou publicamente que fornecedores não deveriam poder restringir o uso legal de tecnologia pelo exército, uma visão ecoada no comunicado do Pentágono à AP de que o exército “não permitirá que um fornecedor se insira na cadeia de comando restringindo o uso legal de uma capacidade crítica e colocando nossos combatentes em risco”.  nnSeparadamente, o The Daily Wire informou que o conselheiro de IA da administração Trump, David Sacks, criticou o que descreveu como laços da era Biden entre funcionários de políticas de IA e a Anthropic, e nomeou os ex-funcionários Biden Elizabeth Kelly e Benjamin Merkel como agora trabalhando na empresa. O The Daily Wire também informou que a Anthropic disse ter nomeado o ex-funcionário da administração Trump Chris Liddell para seu conselho.  nnO impacto legal e prático mais amplo da designação de “risco na cadeia de suprimentos” permanece contestado. Analistas jurídicos e críticos argumentaram que a autoridade invocada é mais estreita do que algumas alegações públicas sobre uma proibição geral a empreiteiros fazendo qualquer negócio com a Anthropic, enquanto a Anthropic disse que a carta do Pentágono reflete uma aplicação limitada ligada a contratos de defesa específicos.  nnAo noticiar a disputa, a AP disse que o confronto centra-se na insistência da Anthropic de que sua tecnologia não seja usada para vigilância em massa de americanos ou armas totalmente autônomas — barreiras que a empresa argumenta serem necessárias mesmo enquanto diz que a tomada de decisões operacionais deve permanecer com o exército.  

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Reportado por IA Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

O app Claude AI da Anthropic atingiu o topo do ranking de apps grátis da App Store da Apple, superando ChatGPT e Gemini, impulsionado pelo apoio público após a proibição federal do presidente Trump à ferramenta devido às recusas da Anthropic em questões de segurança de IA.

Reportado por IA

Investidores globais questionam os retornos dos maciços gastos tecnológicos em inteligência artificial. Christopher Wood, da Jefferies, destaca Anthropic como um ponto de destaque no cenário evolutivo da IA. O boom da IA impulsionou as ações americanas, mas crescem as preocupações sobre a sua sustentabilidade.

A Anthropic anunciou que o seu chatbot de IA Claude permanecerá livre de anúncios, em forte contraste com a recente decisão do rival OpenAI de testar anúncios no ChatGPT. A empresa lançou uma campanha publicitária no Super Bowl que ridiculariza assistentes de IA que interrompem conversas com promoções de produtos. Esta jogada destaca as tensões crescentes no panorama competitivo de IA.

Reportado por IA

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar