Juíza federal bloqueia designação do Pentágono sobre 'risco à cadeia de suprimentos' da Anthropic

Uma juíza federal em São Francisco emitiu uma liminar em 27 de março de 2026, bloqueando a designação da administração Trump que classificava a empresa de IA Anthropic como um risco à cadeia de suprimentos militar — um rótulo aplicado três semanas antes em meio a disputas sobre as limitações da empresa em seus modelos de IA Claude para usos militares, como armas autônomas.

Após a designação da Anthropic pelo Pentágono em 4 de março como um "risco à cadeia de suprimentos" — decorrente de negociações fracassadas sobre restrições contratuais do Claude AI para armas totalmente autônomas e vigilância em massa —, a juíza distrital dos EUA Rita Lin considerou a ação arbitrária, caprichosa e uma "clássica retaliação à Primeira Emenda".

A designação teria restringido contratos governamentais com a empresa de IA do Vale do Silício, que enfatiza salvaguardas de segurança. Em sua decisão de 42 páginas, Lin suspendeu a medida enquanto aguarda uma revisão mais aprofundada.

O subsecretário de Guerra, Emil Michael, criticou a decisão nas redes sociais, alegando que ela contém erros factuais, foi tomada com pressa em meio a um conflito e mina o papel do presidente como Comandante em Chefe, chamando-a de "uma desgraça". O secretário de Guerra, Pete Hegseth, havia argumentado anteriormente que fornecedores não podem ditar o uso militar da tecnologia.

O CEO da Anthropic, Dario Amodei, havia indicado planos de contestar a designação judicialmente. A juíza Lin tem experiência anterior em casos relacionados, como o bloqueio de cortes de verbas na UCLA devido a preocupações com antissemitismo.

A decisão ressalta as tensões contínuas entre os limites éticos das empresas de IA e as demandas de segurança nacional. Esta é parte da série 'Controvérsia sobre o risco à cadeia de suprimentos da Anthropic'.

Artigos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentágono designa Anthropic um ‘risco na cadeia de suprimentos’ após disputa sobre limites de uso militar para Claude AI

Reportado por IA Imagem gerada por IA Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Centenas de funcionários do Google e OpenAI assinaram uma carta aberta em solidariedade à Anthropic, pedindo às suas empresas que resistam às exigências do Pentágono para uso militar irrestrito de modelos de IA. A carta opõe-se a usos que envolvam vigilância em massa doméstica e homicídios autónomos sem supervisão humana. Isto surge em meio a ameaças do Secretário de Defesa dos EUA Pete Hegseth de rotular a Anthropic como risco na cadeia de abastecimento.

Reportado por IA

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

A xAI de Elon Musk perdeu o pedido de liminar para bloquear o Assembly Bill 2013 da Califórnia, que exige que empresas de IA divulguem detalhes dos dados de treinamento. O juiz distrital dos EUA Jesus Bernal decidiu que a xAI não conseguiu demonstrar que a lei revela segredos comerciais ou causa danos irreparáveis. A empresa agora deve cumprir a lei, em vigor desde janeiro, enquanto o processo judicial prossegue.

Reportado por IA

The Trump administration has released a National AI Legislative Framework to unify federal AI rules, address national security concerns, and counter Beijing's growing dominance in the sector. It argues that state laws should not govern areas better suited to the federal government or contradict US strategy for global AI leadership. The White House looks forward to working with Congress to turn it into legislation.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar