Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

O conflito entre a Anthropic e o Departamento de Defesa dos EUA escalou no final de fevereiro de 2026, quando o Pentágono buscou acesso mais amplo ao modelo Claude AI da Anthropic para “todos os fins legais”. A Anthropic recusou-se a remover salvaguardas que proíbem seu uso para vigilância doméstica em massa ou sistemas de armas totalmente autônomas sem supervisão humana. Em 26 de fevereiro, o CEO Dario Amodei afirmou que a IA poderosa permite a montagem de dados dispersos em perfis abrangentes de indivíduos em escala massiva, sublinhando as preocupações da empresa.  nnAté 27 de fevereiro, após a Anthropic recusar-se a alterar seus termos, o Secretário de Defesa Pete Hegseth ameaçou designar a empresa como risco na cadeia de suprimentos e cancelar seu contrato de 200 milhões de dólares. O Presidente Donald Trump então ordenou que todas as agências federais cessassem o uso da tecnologia da Anthropic. O Pentágono formalizou a designação no final do mês passado, levando a Anthropic a entrar com ação em 9 de março no tribunal federal. A ação descreve as medidas como uma “campanha de retaliação sem precedentes e ilegal”, afirmando que “a Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida”.  nnFuncionários do Pentágono sustentam que a questão é irrelevante, pois leis atuais proíbem tal vigilância e o departamento não tem planos para armas autônomas. No entanto, especialistas como Hamza Chaudhry, do Future of Life Institute, chamaram isso de “um vácuo real de governança” e um alerta para o Congresso promulgar regulamentações claras. Greg Nojeim, do Center for Democracy and Technology, observou que modelos de IA “não são confiáveis o suficiente” para armas totalmente autônomas, criticando o Pentágono por rejeitar conselhos de especialistas.  nnEm resposta, o Pentágono fechou um acordo com a OpenAI, que incluiu disposições contra vigilância doméstica de pessoas dos EUA. O CEO da OpenAI, Sam Altman, confirmou que a ferramenta não seria usada por agências de inteligência. Mais de 30 funcionários da OpenAI e do Google, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, apresentaram um breve amicus apoiando a Anthropic em 9 de março. Apesar da disputa, a Anthropic continua fornecendo seus modelos ao exército a custo nominal, incluindo uso na guerra em curso no Irã. Amodei enfatizou o compromisso da empresa com a segurança nacional enquanto busca resolução legal.

O que as pessoas estão dizendo

Discussões no X apoiam predominantemente a ação judicial da Anthropic, vendo a designação de risco na cadeia de suprimentos do DoD como excesso retaliatório por recusar o uso de IA em vigilância em massa e armas autônomas. Críticos rotulam como abuso de poder contra uma empresa americana, enquanto jornalistas detalham as alegações de liberdade de expressão e devido processo. Vozes céticas questionam a aplicação em contratados. Reações destacam limites éticos da IA e precedentes potenciais.

Artigos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Reportado por IA Imagem gerada por IA Verificado

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Reportado por IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Reportado por IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

quinta-feira, 23 de abril de 2026, 14:42h

Anthropic restricts Claude Mythos AI access via Project Glasswing amid hacking fears

segunda-feira, 20 de abril de 2026, 20:41h

Anthropic's Mythos AI model sparks hacking fears

terça-feira, 07 de abril de 2026, 23:21h

Anthropic restricts Claude Mythos AI release and launches Project Glasswing over cybersecurity risks

segunda-feira, 06 de abril de 2026, 02:37h

UK government courts Anthropic for London office expansion

sexta-feira, 27 de março de 2026, 03:59h

Federal judge blocks Pentagon's 'supply chain risk' designation for Anthropic

sábado, 28 de fevereiro de 2026, 15:28h

Trump orders federal ban on Anthropic AI for government use

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentagon pressures Anthropic to weaken AI safety commitments

segunda-feira, 16 de fevereiro de 2026, 13:12h

Pentagon may sever ties with Anthropic over AI safeguards

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar