Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagem gerada por IA

Anthropic retoma negociações com o Pentágono enquanto acordo militar da OpenAI enfrenta reações

Imagem gerada por IA

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Numa tentativa de evitar ser classificada como risco na cadeia de suprimentos — geralmente reservado para adversários estrangeiros —, a Anthropic está de volta às negociações com o Pentágono, indicaram relatórios do Financial Times e da Bloomberg em 5 de março de 2026. O CEO Dario Amodei está negociando com o subsecretário de Defesa para Pesquisa e Engenharia, Emil Michael, após um contrato anterior de US$ 200 milhões de 2025 ter colapsado devido a cláusulas que proibiam vigilância em massa. Amodei detalhou o rompimento num memorando à equipe: o departamento ofereceu honrar os termos da Anthropic se ela removesse uma cláusula sobre 'análise de dados adquiridos em massa' — precisamente o cenário de vigilância que a Anthropic buscava impedir. A Anthropic recusou, levando o Pentágono a ameaçar o cancelamento e a rotulagem de risco. O presidente Trump então ordenou que agências federais cessassem o uso da tecnologia da Anthropic em 28 de fevereiro, embora um fase-out de seis meses permitisse acesso contínuo, incluindo para planejamento de um ataque aéreo ao Irã. Amodei criticou a resposta da OpenAI como 'mentiras puras e simples' no memorando, atribuindo alguns problemas da Anthropic à falta de 'elogios no estilo ditatorial a Trump', diferente do CEO da OpenAI, Sam Altman. A OpenAI fechou seu próprio acordo com o Departamento de Defesa logo após o rompimento da Anthropic, com Altman alegando no X que aconselhou contra a designação de risco e sugerindo que a Anthropic deveria ter aceitado termos semelhantes. A OpenAI depois emendou seu acordo para proibir vigilância em massa sobre americanos. Funcionários da OpenAI criticaram o acordo numa reunião geral, pressionando Altman por detalhes; ele reconheceu desleixo interno nas redes sociais. Anteriormente, a OpenAI proibia uso militar, mas permitia testes do Pentágono via Microsoft. A controvérsia impulsionou o Claude da Anthropic ao topo do ranking de apps grátis da Apple. Parte da série sobre a disputa do contrato de IA Anthropic–Pentágono.

O que as pessoas estão dizendo

As discussões no X focam na Anthropic retomando negociações com o Pentágono para evitar uma designação de risco na cadeia de suprimentos após recusar remover salvaguardas de IA sobre vigilância e armas autônomas. O memorando vazado de Dario Amodei acusa o acordo militar da OpenAI de 'mentiras puras e simples' e 'teatro de segurança', provocando reações incluindo boicotes de usuários ao ChatGPT e elogios à ética da Anthropic. Sentimentos incluem apoio a princípios de segurança de IA, críticas à hipocrisia da OpenAI, reportagens neutras e ceticismo em relação à pressão governamental.

Artigos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagem gerada por IA

Trump ordena proibição federal ao uso da IA da Anthropic no governo

Reportado por IA Imagem gerada por IA

O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

Centenas de funcionários do Google e OpenAI assinaram uma carta aberta em solidariedade à Anthropic, pedindo às suas empresas que resistam às exigências do Pentágono para uso militar irrestrito de modelos de IA. A carta opõe-se a usos que envolvam vigilância em massa doméstica e homicídios autónomos sem supervisão humana. Isto surge em meio a ameaças do Secretário de Defesa dos EUA Pete Hegseth de rotular a Anthropic como risco na cadeia de abastecimento.

A Anthropic estendeu sua capacidade de memória para o nível gratuito do seu chatbot de IA Claude, permitindo que os usuários façam referência a conversas passadas. A empresa também lançou uma ferramenta para importar memórias de chatbots concorrentes como ChatGPT e Gemini. Esta atualização coincide com o aumento de popularidade do Claude em meio a uma disputa com o Departamento de Defesa dos EUA.

Reportado por IA

Em 5 de fevereiro de 2026, Anthropic e OpenAI lançaram simultaneamente produtos que mudam os usuários de conversar com IA para gerenciar equipes de agentes de IA. Anthropic introduziu Claude Opus 4.6 com equipes de agentes para desenvolvedores, enquanto OpenAI revelou Frontier e GPT-5.3-Codex para fluxos de trabalho empresariais. Esses lançamentos coincidem com uma queda de US$ 285 bilhões em ações de software em meio a temores de que a IA perturbe fornecedores tradicionais de SaaS.

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

Reportado por IA

O servidor Git MCP oficial da Anthropic continha vulnerabilidades de segurança preocupantes que podiam ser encadeadas para impactos graves. Os problemas foram destacados em um relatório recente da TechRadar. Detalhes surgiram sobre riscos potenciais à infraestrutura da empresa de IA.

quarta-feira, 04 de março de 2026, 11:15h

Atualização do CoWork da Anthropic provoca venda em massa no setor de software dos EUA

terça-feira, 03 de março de 2026, 13:21h

AI emerges as key player in modern warfare

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump ordena que agências federais parem de usar IA da Anthropic

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

terça-feira, 17 de fevereiro de 2026, 01:50h

SpaceX to join Pentagon contest for autonomous drone technology

segunda-feira, 16 de fevereiro de 2026, 13:12h

Pentagon may sever ties with Anthropic over AI safeguards

quarta-feira, 11 de fevereiro de 2026, 08:43h

Anthropic expande o nível gratuito do Claude com novos recursos

sexta-feira, 26 de dezembro de 2025, 01:16h

Comentário pede fim à antropomorfização da IA

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar