Trump ordena que agências federais parem de usar IA da Anthropic

O presidente dos EUA, Donald Trump, determinou que as agências federais cessem imediatamente o uso da IA Claude da Anthropic, após a recusa da empresa em permitir seu emprego para vigilância em massa ou armas autônomas. A ordem inclui um período de transição de seis meses. Essa decisão decorre de confrontos contínuos entre a Anthropic e o Departamento de Defesa sobre restrições à IA.

Na sexta-feira, 27 de fevereiro de 2026, o presidente Donald Trump anunciou por meio de sua plataforma Truth Social que está instruindo todas as agências federais a «CESTAR IMEDIATAMENTE» o uso das ferramentas de IA da Anthropic. Ele descreveu a empresa como uma «EMPRESA RADICAL DE ESQUERDA, WOKE» e especificou um período de fase de saída de seis meses para agências como o Departamento de Defesa. nnA ordem segue semanas de tensão entre a Anthropic e autoridades governamentais em relação a aplicações militares de inteligência artificial. A IA Claude da Anthropic é amplamente utilizada no Pentágono, incluindo em sistemas classificados. A administração Trump tem pressionado por seu uso em «qualquer propósito legal», mas o contrato da Anthropic proíbe o implantação para vigilância doméstica em massa de americanos ou sistemas de armas ofensivas totalmente autônomas sem intervenção humana. nnNo início desta semana, o secretário de Defesa Pete Hegseth informou ao CEO da Anthropic, Dario Amodei, que invocaria poderes raramente usados para compelir a remoção dessas restrições ou designar a empresa como risco na cadeia de suprimentos, potencialmente proibindo seu uso pelo governo e contratados de defesa. Hegseth estabeleceu um prazo de sexta-feira para conformidade. nnEm resposta, Amodei afirmou que a empresa, fundada com foco na segurança da IA, «não pode, de boa consciência, aceder ao [pedido do Pentágono]». Ele expressou preocupações de que uma IA poderosa poderia permitir vigilância em massa ao montar dados dispersos em perfis abrangentes da vida das pessoas em escala. nnMichael Pastor, decano dos programas de direito tecnológico na New York Law School, observou que a Anthropic está justificada em buscar clareza sobre «propósitos legais», adicionando que a relutância em especificar sobre vigilância levanta preocupações válidas. nnA posição da Anthropic alinha-se com políticas semelhantes em outras empresas; o CEO da OpenAI, Sam Altman, teria afirmado em um memorando interno que sua empresa mantém as mesmas linhas vermelhas contra vigilância em massa e armas autônomas. Funcionários do Google e da OpenAI circularam uma petição instando suas empresas a apoiarem a posição da Anthropic, alertando contra a estratégia do Pentágono de dividir por meio do medo. nnClaude permanece o sistema de IA mais amplamente usado pelo exército dos EUA, com alternativas potenciais incluindo ferramentas da OpenAI, Google ou xAI.

Artigos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagem gerada por IA

Trump orders federal ban on Anthropic AI for government use

Reportado por IA Imagem gerada por IA

US President Donald Trump has directed all federal agencies to immediately cease using Anthropic's AI tools amid a dispute over military applications. The move follows weeks of clashes between Anthropic and Pentagon officials regarding restrictions on AI for mass surveillance and autonomous weapons. A six-month phase-out period has been announced.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Reportado por IA

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Reportado por IA

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar