La responsable de la robotique d'OpenAI démissionne au milieu de préoccupations sur le partenariat de défense

Caitlin Kalinowski, responsable de la robotique chez OpenAI, a démissionné, citant un manque de délibération sur les garde-fous éthiques dans l'accord récent de l'entreprise avec le département de la Défense. Elle a exprimé des préoccupations concernant une surveillance potentielle et des armes autonomes dans un post sur X. OpenAI a reconnu son départ et réitéré ses engagements contre la surveillance intérieure et les systèmes autonomes létaux.

Caitlin Kalinowski a annoncé sa démission d'OpenAI sur X, où elle était responsable de la robotique depuis son arrivée dans l'entreprise fin 2024 après avoir travaillé chez Meta. Dans son post, elle a critiqué la rapidité du partenariat d'OpenAI avec le département de la Défense, déclarant que « la surveillance des Américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont des lignes qui méritaient plus de délibération qu'elles n'en ont reçu ». Elle a ajouté dans une réponse que « l'annonce a été précipitée sans que les garde-fous soient définis », la qualifiant de « préoccupation de gouvernance avant tout ».OpenAI a confirmé la démission dans un communiqué, exprimant sa compréhension des points de vue divergents sur la question et s'engageant à poursuivre les discussions avec les parties prenantes. L'entreprise a souligné qu'elle ne cautionne pas les problèmes soulevés par Kalinowski. Selon le communiqué, « Nous pensons que notre accord avec le Pentagone crée une voie viable pour des utilisations responsables de l'IA en matière de sécurité nationale tout en clarifiant nos lignes rouges : pas de surveillance intérieure et pas d'armes autonomes ».Ce départ fait suite à l'accord d'OpenAI avec le département de la Défense, une décision qui a attiré l'attention après qu'Anthropic a refusé d'assouplir ses garde-fous liés à l'IA en matière de surveillance de masse et d'armes totalement autonomes. Le PDG d'OpenAI, Sam Altman, a indiqué sa volonté d'ajuster l'accord pour interdire explicitement l'espionnage des Américains. Le départ de Kalinowski représente une réaction notable aux implications éthiques du partenariat.

Articles connexes

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Image générée par IA

Anthropic reprend les discussions avec le Pentagone alors que l’accord militaire d’OpenAI suscite des remous

Rapporté par l'IA Image générée par IA

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

Rapporté par l'IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Une fusillade de masse en Colombie-Britannique attire l'attention sur la défense du PDG d'OpenAI, Sam Altman, pour la protection de la vie privée des conversations avec l'IA. Le tireur aurait discuté de scénarios de violence armée avec ChatGPT des mois avant l'attaque, mais OpenAI n'a pas alerté les autorités. Les responsables canadiens remettent en question la gestion de l'affaire par l'entreprise.

Rapporté par l'IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporté par l'IA

Jeff Kaplan, ancien directeur d’Overwatch, a partagé ses réflexions sur son départ de Blizzard et ses vues sur l’IA lors d’un récent entretien podcast. Il a décrit des pressions corporatives intenses liées à la Overwatch League et a souligné la valeur irremplaçable de la créativité humaine dans le développement de jeux. Kaplan a également révélé des détails sur le prochain jeu de survie de son nouveau studio.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser