Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagem gerada por IA

Anthropic retoma negociações com o Pentágono enquanto acordo militar da OpenAI enfrenta reações

Imagem gerada por IA

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Numa tentativa de evitar ser classificada como risco na cadeia de suprimentos — geralmente reservado para adversários estrangeiros —, a Anthropic está de volta às negociações com o Pentágono, indicaram relatórios do Financial Times e da Bloomberg em 5 de março de 2026. O CEO Dario Amodei está negociando com o subsecretário de Defesa para Pesquisa e Engenharia, Emil Michael, após um contrato anterior de US$ 200 milhões de 2025 ter colapsado devido a cláusulas que proibiam vigilância em massa. Amodei detalhou o rompimento num memorando à equipe: o departamento ofereceu honrar os termos da Anthropic se ela removesse uma cláusula sobre 'análise de dados adquiridos em massa' — precisamente o cenário de vigilância que a Anthropic buscava impedir. A Anthropic recusou, levando o Pentágono a ameaçar o cancelamento e a rotulagem de risco. O presidente Trump então ordenou que agências federais cessassem o uso da tecnologia da Anthropic em 28 de fevereiro, embora um fase-out de seis meses permitisse acesso contínuo, incluindo para planejamento de um ataque aéreo ao Irã. Amodei criticou a resposta da OpenAI como 'mentiras puras e simples' no memorando, atribuindo alguns problemas da Anthropic à falta de 'elogios no estilo ditatorial a Trump', diferente do CEO da OpenAI, Sam Altman. A OpenAI fechou seu próprio acordo com o Departamento de Defesa logo após o rompimento da Anthropic, com Altman alegando no X que aconselhou contra a designação de risco e sugerindo que a Anthropic deveria ter aceitado termos semelhantes. A OpenAI depois emendou seu acordo para proibir vigilância em massa sobre americanos. Funcionários da OpenAI criticaram o acordo numa reunião geral, pressionando Altman por detalhes; ele reconheceu desleixo interno nas redes sociais. Anteriormente, a OpenAI proibia uso militar, mas permitia testes do Pentágono via Microsoft. A controvérsia impulsionou o Claude da Anthropic ao topo do ranking de apps grátis da Apple. Parte da série sobre a disputa do contrato de IA Anthropic–Pentágono.

O que as pessoas estão dizendo

As discussões no X focam na Anthropic retomando negociações com o Pentágono para evitar uma designação de risco na cadeia de suprimentos após recusar remover salvaguardas de IA sobre vigilância e armas autônomas. O memorando vazado de Dario Amodei acusa o acordo militar da OpenAI de 'mentiras puras e simples' e 'teatro de segurança', provocando reações incluindo boicotes de usuários ao ChatGPT e elogios à ética da Anthropic. Sentimentos incluem apoio a princípios de segurança de IA, críticas à hipocrisia da OpenAI, reportagens neutras e ceticismo em relação à pressão governamental.

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Reportado por IA Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

A Anthropic limitou o acesso ao seu modelo de IA Claude Mythos Preview devido à sua capacidade superior de detectar e explorar vulnerabilidades de software, ao mesmo tempo em que lançou o Projeto Glasswing — um consórcio com mais de 45 empresas de tecnologia, incluindo Apple, Google e Microsoft — para corrigir falhas e reforçar defesas de forma colaborativa. O anúncio ocorre após recentes vazamentos de dados na empresa.

Reportado por IA

Caitlin Kalinowski, chefe de robótica da OpenAI, renunciou, citando deliberação insuficiente sobre salvaguardas éticas no recente acordo da empresa com o Departamento de Defesa. Ela expressou preocupações sobre vigilância potencial e armas autônomas em uma postagem no X. A OpenAI confirmou sua saída e reiterou seus compromissos contra vigilância doméstica e sistemas autônomos letais.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar