La jefa de robótica de OpenAI dimite en medio de preocupaciones por asociación con Defensa

Caitlin Kalinowski, jefa de robótica de OpenAI, ha dimitido, citando una deliberación insuficiente sobre los límites éticos en el reciente acuerdo de la compañía con el Departamento de Defensa. Expresó preocupaciones sobre vigilancia potencial y armas autónomas en una publicación en X. OpenAI reconoció su salida y reiteró sus compromisos contra la vigilancia doméstica y los sistemas autónomos letales.

Caitlin Kalinowski anunció su dimisión de OpenAI en X, donde se desempeñaba como jefa de robótica desde que se unió a la compañía a finales de 2024 tras trabajar en Meta. En su publicación, criticó la rapidez de la asociación de OpenAI con el Departamento de Defensa, afirmando que «la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron». Además, señaló en una respuesta que «el anuncio se precipitó sin que se definieran los límites», describiéndolo como «una preocupación de gobernanza ante todo».OpenAI confirmó la dimisión en un comunicado, expresando comprensión por las opiniones divergentes sobre el asunto y comprometiéndose a discusiones continuas con las partes interesadas. La compañía enfatizó que no respalda las cuestiones planteadas por Kalinowski. Según el comunicado, «Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, al mismo tiempo que deja claras nuestras líneas rojas: no a la vigilancia doméstica y no a las armas autónomas».Esta salida sigue al acuerdo de OpenAI con el Departamento de Defensa, una medida que atrajo escrutinio después de que Anthropic rechazara relajar sus salvaguardas de IA relacionadas con la vigilancia masiva y las armas totalmente autónomas. El consejero delegado de OpenAI, Sam Altman, ha indicado disposición a ajustar el acuerdo para prohibir explícitamente el espionaje a estadounidenses. La salida de Kalinowski representa una reacción notable a las implicaciones éticas de la asociación.”,

Artículos relacionados

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagen generada por IA

Anthropic reanuda conversaciones con el Pentágono mientras el acuerdo militar de OpenAI enfrenta rechazo

Reportado por IA Imagen generada por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Un tiroteo masivo en Columbia Británica ha atraído la atención a la campaña del director ejecutivo de OpenAI, Sam Altman, por protecciones de privacidad en conversaciones con IA. El tirador habría discutido escenarios de violencia armada con ChatGPT meses antes del ataque, pero OpenAI no alertó a las autoridades. Funcionarios canadienses cuestionan la gestión de la compañía en el caso.

Reportado por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

Jeff Kaplan, exdirector de Overwatch, compartió perspectivas sobre su salida de Blizzard y opiniones sobre la IA en una reciente entrevista de podcast. Describió intensas presiones corporativas vinculadas a la Overwatch League y enfatizó el valor irremplazable de la creatividad humana en el desarrollo de videojuegos. Kaplan también reveló detalles sobre el próximo juego de supervivencia de su nuevo estudio.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar