Tribunal de apelações nega suspensão à Anthropic em disputa sobre lista negra de riscos à cadeia de suprimentos

No desdobramento mais recente da controvérsia sobre riscos à cadeia de suprimentos envolvendo a Anthropic, um tribunal federal de apelações dos EUA negou, em 9 de abril, a moção de emergência da empresa para bloquear a inclusão de sua tecnologia de IA em uma lista negra pelo governo Trump. O tribunal acelerou os argumentos orais para 19 de maio, mas decidiu que o equilíbrio de interesses favorece o governo, marcando um retrocesso após uma liminar anterior de um tribunal distrital.

O Tribunal de Apelações dos EUA para o Circuito do Distrito de Colúmbia recusou-se a interromper a designação da Anthropic pelo governo Trump como um risco à cadeia de suprimentos de segurança nacional. Um painel de três juízes nomeados por republicanos, incluindo Gregory Katsas e Neomi Rao, indicados por Trump, reconheceu danos potenciais irreparáveis à Anthropic — como perdas financeiras e alegações de retaliação por discursos protegidos pela Primeira Emenda — mas considerou insuficientes as evidências de inibição à liberdade de expressão e priorizou os interesses do governo em meio a um conflito militar. A lista negra decorre da recusa da Anthropic em permitir que seus modelos de IA Claude sejam utilizados para guerra autônoma e vigilância em massa de americanos. O presidente Trump ordenou que agências federais parassem de usar a tecnologia, e o secretário de Defesa, Pete Hegseth, proibiu contratantes militares de manterem negócios com a empresa. O procurador-geral interino, Todd Blanche, classificou a decisão como uma 'vitória retumbante para a prontidão militar', enfatizando a autoridade presidencial sobre o Departamento de Guerra (anteriormente Defesa). Isso ocorre após a liminar preliminar da juíza distrital dos EUA Rita Lin, em 27 de março, na Califórnia, que bloqueou a designação inicial de 4 de março por considerá-la arbitrária e uma retaliação à Primeira Emenda; o governo está recorrendo ao 9º Circuito. A Anthropic expressou confiança em futuras decisões judiciais que considerem a lista negra ilegal e reiterou seu compromisso com uma IA segura. A Computer & Communications Industry Association alertou que falhas processuais em tais designações podem prejudicar a inovação nos EUA. Parte da série 'Controvérsia sobre risco à cadeia de suprimentos da Anthropic'.

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic sues US defense department over supply chain risk designation

Reportado por IA Imagem gerada por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Reportado por IA Verificado

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

segunda-feira, 20 de abril de 2026, 20:41h

Anthropic's Mythos AI model sparks hacking fears

segunda-feira, 06 de abril de 2026, 02:37h

UK government courts Anthropic for London office expansion

quinta-feira, 19 de março de 2026, 09:18h

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

domingo, 08 de março de 2026, 06:48h

Christopher Wood views Anthropic as key AI player

quinta-feira, 05 de março de 2026, 14:16h

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

domingo, 01 de março de 2026, 08:19h

Claude AI app tops App Store amid backlash to US government ban

sábado, 28 de fevereiro de 2026, 15:28h

Trump orders federal ban on Anthropic AI for government use

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump orders federal agencies to stop using Anthropic's AI

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar