Trump ordena que agências federais parem de usar IA da Anthropic

O presidente dos EUA, Donald Trump, determinou que as agências federais cessem imediatamente o uso da IA Claude da Anthropic, após a recusa da empresa em permitir seu emprego para vigilância em massa ou armas autônomas. A ordem inclui um período de transição de seis meses. Essa decisão decorre de confrontos contínuos entre a Anthropic e o Departamento de Defesa sobre restrições à IA.

Na sexta-feira, 27 de fevereiro de 2026, o presidente Donald Trump anunciou por meio de sua plataforma Truth Social que está instruindo todas as agências federais a «CESTAR IMEDIATAMENTE» o uso das ferramentas de IA da Anthropic. Ele descreveu a empresa como uma «EMPRESA RADICAL DE ESQUERDA, WOKE» e especificou um período de fase de saída de seis meses para agências como o Departamento de Defesa. nnA ordem segue semanas de tensão entre a Anthropic e autoridades governamentais em relação a aplicações militares de inteligência artificial. A IA Claude da Anthropic é amplamente utilizada no Pentágono, incluindo em sistemas classificados. A administração Trump tem pressionado por seu uso em «qualquer propósito legal», mas o contrato da Anthropic proíbe o implantação para vigilância doméstica em massa de americanos ou sistemas de armas ofensivas totalmente autônomas sem intervenção humana. nnNo início desta semana, o secretário de Defesa Pete Hegseth informou ao CEO da Anthropic, Dario Amodei, que invocaria poderes raramente usados para compelir a remoção dessas restrições ou designar a empresa como risco na cadeia de suprimentos, potencialmente proibindo seu uso pelo governo e contratados de defesa. Hegseth estabeleceu um prazo de sexta-feira para conformidade. nnEm resposta, Amodei afirmou que a empresa, fundada com foco na segurança da IA, «não pode, de boa consciência, aceder ao [pedido do Pentágono]». Ele expressou preocupações de que uma IA poderosa poderia permitir vigilância em massa ao montar dados dispersos em perfis abrangentes da vida das pessoas em escala. nnMichael Pastor, decano dos programas de direito tecnológico na New York Law School, observou que a Anthropic está justificada em buscar clareza sobre «propósitos legais», adicionando que a relutância em especificar sobre vigilância levanta preocupações válidas. nnA posição da Anthropic alinha-se com políticas semelhantes em outras empresas; o CEO da OpenAI, Sam Altman, teria afirmado em um memorando interno que sua empresa mantém as mesmas linhas vermelhas contra vigilância em massa e armas autônomas. Funcionários do Google e da OpenAI circularam uma petição instando suas empresas a apoiarem a posição da Anthropic, alertando contra a estratégia do Pentágono de dividir por meio do medo. nnClaude permanece o sistema de IA mais amplamente usado pelo exército dos EUA, com alternativas potenciais incluindo ferramentas da OpenAI, Google ou xAI.

Artigos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagem gerada por IA

Trump ordena proibição federal ao uso da IA da Anthropic no governo

Reportado por IA Imagem gerada por IA

O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

A Anthropic lançou um plugin jurídico para sua ferramenta Claude Cowork, provocando preocupações entre provedores dedicados de IA jurídica. O plugin oferece recursos úteis para revisão de contratos e conformidade, mas fica aquém de substituir plataformas especializadas. Empresas sul-africanas enfrentam obstáculos adicionais devido a regulamentações de proteção de dados.

Reportado por IA

Em 5 de fevereiro de 2026, Anthropic e OpenAI lançaram simultaneamente produtos que mudam os usuários de conversar com IA para gerenciar equipes de agentes de IA. Anthropic introduziu Claude Opus 4.6 com equipes de agentes para desenvolvedores, enquanto OpenAI revelou Frontier e GPT-5.3-Codex para fluxos de trabalho empresariais. Esses lançamentos coincidem com uma queda de US$ 285 bilhões em ações de software em meio a temores de que a IA perturbe fornecedores tradicionais de SaaS.

A OpenAI está redirecionando recursos para melhorar seu chatbot principal ChatGPT, levando à saída de vários pesquisadores seniores. A empresa de São Francisco enfrenta concorrência intensa da Google e Anthropic, provocando uma mudança estratégica da pesquisa de longo prazo. Essa mudança gerou preocupações sobre o futuro da exploração inovadora de IA na empresa.

Reportado por IA

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

domingo, 01 de março de 2026, 08:19h

App Claude AI lidera App Store em meio a reação contra proibição do governo dos EUA

sexta-feira, 27 de fevereiro de 2026, 12:24h

Funcionários do Google e OpenAI assinam carta de apoio à Anthropic contra o Pentágono

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

quinta-feira, 26 de fevereiro de 2026, 22:43h

Anthropic cannot meet Pentagon's AI safeguards demand, CEO says

quinta-feira, 26 de fevereiro de 2026, 21:33h

Anthropic aposenta Claude 3 Opus e concede a ele um newsletter no Substack

segunda-feira, 16 de fevereiro de 2026, 13:12h

Pentagon may sever ties with Anthropic over AI safeguards

quarta-feira, 11 de fevereiro de 2026, 08:43h

Anthropic expande o nível gratuito do Claude com novos recursos

quarta-feira, 04 de fevereiro de 2026, 22:03h

Anthropic's Claude Cowork tool hits stocks of Infosys and TCS

segunda-feira, 29 de dezembro de 2025, 20:12h

AI agents arrived in 2025

quinta-feira, 11 de dezembro de 2025, 08:01h

Trump assina ordem executiva que limita leis estaduais sobre IA

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar