La jefa de robótica de OpenAI dimite en medio de preocupaciones por asociación con Defensa

Caitlin Kalinowski, jefa de robótica de OpenAI, ha dimitido, citando una deliberación insuficiente sobre los límites éticos en el reciente acuerdo de la compañía con el Departamento de Defensa. Expresó preocupaciones sobre vigilancia potencial y armas autónomas en una publicación en X. OpenAI reconoció su salida y reiteró sus compromisos contra la vigilancia doméstica y los sistemas autónomos letales.

Caitlin Kalinowski anunció su dimisión de OpenAI en X, donde se desempeñaba como jefa de robótica desde que se unió a la compañía a finales de 2024 tras trabajar en Meta. En su publicación, criticó la rapidez de la asociación de OpenAI con el Departamento de Defensa, afirmando que «la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron». Además, señaló en una respuesta que «el anuncio se precipitó sin que se definieran los límites», describiéndolo como «una preocupación de gobernanza ante todo».OpenAI confirmó la dimisión en un comunicado, expresando comprensión por las opiniones divergentes sobre el asunto y comprometiéndose a discusiones continuas con las partes interesadas. La compañía enfatizó que no respalda las cuestiones planteadas por Kalinowski. Según el comunicado, «Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, al mismo tiempo que deja claras nuestras líneas rojas: no a la vigilancia doméstica y no a las armas autónomas».Esta salida sigue al acuerdo de OpenAI con el Departamento de Defensa, una medida que atrajo escrutinio después de que Anthropic rechazara relajar sus salvaguardas de IA relacionadas con la vigilancia masiva y las armas totalmente autónomas. El consejero delegado de OpenAI, Sam Altman, ha indicado disposición a ajustar el acuerdo para prohibir explícitamente el espionaje a estadounidenses. La salida de Kalinowski representa una reacción notable a las implicaciones éticas de la asociación.”,

Artículos relacionados

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagen generada por IA

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

Reportado por IA Imagen generada por IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

A mass shooting in British Columbia has drawn attention to OpenAI CEO Sam Altman's push for privacy protections for AI conversations. The shooter reportedly discussed gun violence scenarios with ChatGPT months before the attack, but OpenAI did not alert authorities. Canadian officials are questioning the company's handling of the matter.

Reportado por IA Verificado por hechos

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

Florida Attorney General James Uthmeier has initiated a criminal investigation into OpenAI, examining whether the company bears liability for ChatGPT providing advice to a suspected gunman in last year's Florida State University mass shooting. The shooting killed two people and wounded six others. OpenAI maintains that its chatbot only shared publicly available information and is not responsible.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar