Funcionários do Google e OpenAI assinam carta de apoio à Anthropic contra o Pentágono

Centenas de funcionários do Google e OpenAI assinaram uma carta aberta em solidariedade à Anthropic, pedindo às suas empresas que resistam às exigências do Pentágono para uso militar irrestrito de modelos de IA. A carta opõe-se a usos que envolvam vigilância em massa doméstica e homicídios autónomos sem supervisão humana. Isto surge em meio a ameaças do Secretário de Defesa dos EUA Pete Hegseth de rotular a Anthropic como risco na cadeia de abastecimento.

A carta aberta, intitulada “Não Seremos Divididos”, apela aos líderes do Google e OpenAI para que se unam contra os pedidos do Pentágono. Recusa especificamente as exigências de usar modelos de IA como o Claude da Anthropic para vigilância em massa doméstica e homicídios autónomos sem supervisão humana. O CEO da Anthropic, Dario Amodei, afirmou que estas são linhas que nenhuma empresa de IA deve cruzar.  Até 27 de fevereiro de 2026, a carta reuniu mais de 450 assinaturas, com quase 400 de funcionários do Google e o restante da OpenAI. Cerca de 50 por cento dos signatários optou por anexar os seus nomes publicamente, enquanto os outros permaneceram anónimos. Todas as assinaturas foram verificadas como provenientes de funcionários atuais das duas empresas. Os organizadores, que não estão afiliados a nenhuma empresa de IA, partido político ou grupo de defesa, iniciaram o esforço de forma independente.  Este desenvolvimento faz parte de um impasse em curso entre a Anthropic e o Secretário de Defesa dos EUA Pete Hegseth. Hegseth ameaçou designar a Anthropic como um “risco na cadeia de abastecimento” a menos que retire certas salvaguardas para trabalhos classificados. O Pentágono tem negociado com o Google e a OpenAI sobre usos semelhantes dos seus modelos para fins classificados, e a xAI juntou-se a essas negociações no início da semana. A carta argumenta que o governo está a tentar dividir as empresas instilando medo de que outras possam cumprir.  O CEO da OpenAI, Sam Altman, abordou a questão num memorando interno, afirmando que a sua empresa manterá as mesmas linhas vermelhas da Anthropic. Numa entrevista à CNBC no mesmo dia, Altman expressou que não acredita que o Pentágono deva ameaçar medidas da Lei de Produção de Defesa contra estas empresas. Em separado, Amodei reafirmou a posição da Anthropic, dizendo: “Não podemos, em sã consciência, aceder ao seu pedido.”

Artigos relacionados

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagem gerada por IA

Anthropic retoma negociações com o Pentágono enquanto acordo militar da OpenAI enfrenta reações

Reportado por IA Imagem gerada por IA

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Reportado por IA

A OpenAI está redirecionando recursos para melhorar seu chatbot principal ChatGPT, levando à saída de vários pesquisadores seniores. A empresa de São Francisco enfrenta concorrência intensa da Google e Anthropic, provocando uma mudança estratégica da pesquisa de longo prazo. Essa mudança gerou preocupações sobre o futuro da exploração inovadora de IA na empresa.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar