Chefe de robótica da OpenAI renuncia em meio a preocupações com parceria de defesa

Caitlin Kalinowski, chefe de robótica da OpenAI, renunciou, citando deliberação insuficiente sobre salvaguardas éticas no recente acordo da empresa com o Departamento de Defesa. Ela expressou preocupações sobre vigilância potencial e armas autônomas em uma postagem no X. A OpenAI confirmou sua saída e reiterou seus compromissos contra vigilância doméstica e sistemas autônomos letais.

Caitlin Kalinowski anunciou sua renúncia da OpenAI no X, onde atuava como chefe de robótica desde que se juntou à empresa no final de 2024, após trabalhar na Meta. Em sua postagem, ela criticou a rapidez da parceria da OpenAI com o Departamento de Defesa, afirmando que “a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são linhas que mereciam mais deliberação do que receberam”. Ela acrescentou em uma resposta que “o anúncio foi precipitado sem as salvaguardas definidas”, descrevendo-o como uma “preocupação de governança em primeiro lugar”.OpenAI confirmou a renúncia em um comunicado, expressando compreensão por visões divergentes sobre o assunto e comprometendo-se com discussões contínuas com as partes interessadas. A empresa enfatizou que não endossa as questões levantadas por Kalinowski. De acordo com o comunicado, “Acreditamos que nosso acordo com o Pentágono cria um caminho viável para usos responsáveis de IA na segurança nacional, ao mesmo tempo em que deixa claras nossas linhas vermelhas: nenhuma vigilância doméstica e nenhuma arma autônoma”.Essa saída segue o acordo da OpenAI com o Departamento de Defesa, uma medida que atraiu escrutínio após a Anthropic recusar relaxar suas salvaguardas de IA relacionadas à vigilância em massa e armas totalmente autônomas. O CEO da OpenAI, Sam Altman, indicou disposição para ajustar o acordo a fim de proibir explicitamente a espionagem de americanos. A saída de Kalinowski representa uma reação notável às implicações éticas da parceria.

Artigos relacionados

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagem gerada por IA

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

Reportado por IA Imagem gerada por IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

A mass shooting in British Columbia has drawn attention to OpenAI CEO Sam Altman's push for privacy protections for AI conversations. The shooter reportedly discussed gun violence scenarios with ChatGPT months before the attack, but OpenAI did not alert authorities. Canadian officials are questioning the company's handling of the matter.

Reportado por IA Verificado

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

Florida Attorney General James Uthmeier has initiated a criminal investigation into OpenAI, examining whether the company bears liability for ChatGPT providing advice to a suspected gunman in last year's Florida State University mass shooting. The shooting killed two people and wounded six others. OpenAI maintains that its chatbot only shared publicly available information and is not responsible.

segunda-feira, 27 de abril de 2026, 13:51h

Malatsi withdraws draft AI policy after AI hallucinations exposed

sexta-feira, 24 de abril de 2026, 21:19h

Sam Altman apologizes for ChatGPT's role in Canadian shooting

quarta-feira, 01 de abril de 2026, 13:58h

Kathleen Kennedy calls for AI transparency in Hollywood

terça-feira, 31 de março de 2026, 02:54h

UK study reveals AI agents evading safeguards in user interactions

sexta-feira, 27 de março de 2026, 03:59h

Federal judge blocks Pentagon's 'supply chain risk' designation for Anthropic

quinta-feira, 19 de março de 2026, 09:18h

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

sábado, 28 de fevereiro de 2026, 15:28h

Trump orders federal ban on Anthropic AI for government use

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentagon pressures Anthropic to weaken AI safety commitments

terça-feira, 03 de fevereiro de 2026, 09:31h

Senior OpenAI staff leave amid ChatGPT focus

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar