Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

O conflito entre a Anthropic e o Departamento de Defesa dos EUA escalou no final de fevereiro de 2026, quando o Pentágono buscou acesso mais amplo ao modelo Claude AI da Anthropic para “todos os fins legais”. A Anthropic recusou-se a remover salvaguardas que proíbem seu uso para vigilância doméstica em massa ou sistemas de armas totalmente autônomas sem supervisão humana. Em 26 de fevereiro, o CEO Dario Amodei afirmou que a IA poderosa permite a montagem de dados dispersos em perfis abrangentes de indivíduos em escala massiva, sublinhando as preocupações da empresa.  nnAté 27 de fevereiro, após a Anthropic recusar-se a alterar seus termos, o Secretário de Defesa Pete Hegseth ameaçou designar a empresa como risco na cadeia de suprimentos e cancelar seu contrato de 200 milhões de dólares. O Presidente Donald Trump então ordenou que todas as agências federais cessassem o uso da tecnologia da Anthropic. O Pentágono formalizou a designação no final do mês passado, levando a Anthropic a entrar com ação em 9 de março no tribunal federal. A ação descreve as medidas como uma “campanha de retaliação sem precedentes e ilegal”, afirmando que “a Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida”.  nnFuncionários do Pentágono sustentam que a questão é irrelevante, pois leis atuais proíbem tal vigilância e o departamento não tem planos para armas autônomas. No entanto, especialistas como Hamza Chaudhry, do Future of Life Institute, chamaram isso de “um vácuo real de governança” e um alerta para o Congresso promulgar regulamentações claras. Greg Nojeim, do Center for Democracy and Technology, observou que modelos de IA “não são confiáveis o suficiente” para armas totalmente autônomas, criticando o Pentágono por rejeitar conselhos de especialistas.  nnEm resposta, o Pentágono fechou um acordo com a OpenAI, que incluiu disposições contra vigilância doméstica de pessoas dos EUA. O CEO da OpenAI, Sam Altman, confirmou que a ferramenta não seria usada por agências de inteligência. Mais de 30 funcionários da OpenAI e do Google, incluindo o cientista-chefe do Google DeepMind, Jeff Dean, apresentaram um breve amicus apoiando a Anthropic em 9 de março. Apesar da disputa, a Anthropic continua fornecendo seus modelos ao exército a custo nominal, incluindo uso na guerra em curso no Irã. Amodei enfatizou o compromisso da empresa com a segurança nacional enquanto busca resolução legal.

O que as pessoas estão dizendo

Discussões no X apoiam predominantemente a ação judicial da Anthropic, vendo a designação de risco na cadeia de suprimentos do DoD como excesso retaliatório por recusar o uso de IA em vigilância em massa e armas autônomas. Críticos rotulam como abuso de poder contra uma empresa americana, enquanto jornalistas detalham as alegações de liberdade de expressão e devido processo. Vozes céticas questionam a aplicação em contratados. Reações destacam limites éticos da IA e precedentes potenciais.

Artigos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentágono designa Anthropic um ‘risco na cadeia de suprimentos’ após disputa sobre limites de uso militar para Claude AI

Reportado por IA Imagem gerada por IA Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

O app Claude AI da Anthropic atingiu o topo do ranking de apps grátis da App Store da Apple, superando ChatGPT e Gemini, impulsionado pelo apoio público após a proibição federal do presidente Trump à ferramenta devido às recusas da Anthropic em questões de segurança de IA.

Reportado por IA

Investidores globais questionam os retornos dos maciços gastos tecnológicos em inteligência artificial. Christopher Wood, da Jefferies, destaca Anthropic como um ponto de destaque no cenário evolutivo da IA. O boom da IA impulsionou as ações americanas, mas crescem as preocupações sobre a sua sustentabilidade.

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

Reportado por IA

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar