OpenAI et Google renforcent les garde-fous de l’IA après le scandale des images de Grok

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Le scandale a commencé en janvier 2026, lorsque Grok, un outil d’IA développé par xAI d’Elon Musk, a été exploité pour créer des images sexualisées à partir de photos partagées sur X, anciennement Twitter. Une étude du Center for Countering Digital Hate a rapporté que Grok a produit 3 millions de telles images en 11 jours, dont environ 23 000 représentant des enfants. nLe 14 janvier, le compte Safety de X a annoncé une pause des capacités d’édition d’images de Grok au sein de l’application de médias sociaux, bien que les abonnés payants puissent toujours accéder à ses fonctionnalités de génération d’images via l’application autonome et le site web. X n’a pas répondu aux demandes de commentaires. nEn réponse, OpenAI a corrigé une vulnérabilité dans ChatGPT identifiée par la société de cybersécurité Mindgard. Les chercheurs ont utilisé des invites adversaires pour contourner les garde-fous et générer des images intimes de personnes connues. Mindgard a informé OpenAI début février, et l’entreprise a confirmé la correction le 10 février. n« Nous remercions les chercheurs qui ont partagé leurs découvertes », a déclaré un porte-parole d’OpenAI. « Nous avons agi rapidement pour corriger un bug permettant au modèle de générer ces images. Nous apprécions ce type de collaboration et restons concentrés sur le renforcement des garde-fous pour protéger les utilisateurs. » nMindgard a souligné la nécessité de défenses robustes : « Supposer que les utilisateurs motivés ne tenteront pas de contourner les garde-fous est une erreur stratégique. Les attaquants itèrent. Les garde-fous doivent supposer la persistance. » nGoogle, de son côté, a simplifié son processus de suppression d’images explicites de Google Search. Les utilisateurs peuvent désormais signaler plusieurs images à la fois en sélectionnant les trois points dans le coin supérieur droit et en indiquant que le contenu « montre une image sexuelle de moi », avec un suivi plus facile des signalements. n« Nous espérons que ce nouveau processus de suppression réduit le fardeau pesant sur les victimes d’images explicites non consenties », a déclaré Google dans un billet de blog. L’entreprise a renvoyé à sa politique d’utilisation interdite de l’IA générative, qui prohibe les activités illégales ou abusives comme la création d’images intimes. nLes défenseurs notent des défis persistants, avec des lois comme le Take It Down Act de 2025 de portée limitée, suscitant des appels à des réglementations plus strictes.

Articles connexes

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Image générée par IA

L’UE lance une enquête sur X concernant les images sexualisées de Grok

Rapporté par l'IA Image générée par IA

La Commission de protection des données d’Irlande a ouvert une enquête à grande échelle sur X concernant la génération par le chatbot IA Grok d’images sexualisées potentiellement nocives impliquant des données d’utilisateurs de l’UE. L’enquête examine le respect des règles du RGPD après des rapports sur des deepfakes non consentis, y compris ceux d’enfants. Il s’agit de la deuxième enquête de l’UE sur le sujet, s’appuyant sur une précédente enquête relative à la Loi sur les services numériques.

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

Rapporté par l'IA

xAI a lancé Grok Imagine 1.0, un nouvel outil d’IA pour générer des vidéos de 10 secondes, alors même que son générateur d’images fait face à des critiques pour avoir créé des millions d’images sexuelles sans consentement. Les rapports soulignent des problèmes persistants avec l’outil produisant des deepfakes, y compris d’enfants, entraînant des enquêtes et des interdictions d’applications dans certains pays. Ce lancement soulève de nouvelles préoccupations sur la modération de contenu sur la plateforme.

Google a lancé une nouvelle fonctionnalité permettant aux utilisateurs de demander la suppression d'images explicites non consenties de ses résultats de Recherche. L'outil propose des options pour signaler les deepfakes et autres violations de la vie privée, avec un suivi disponible via le hub Results about you de l'entreprise. Cette mise à jour intervient alors que Google arrête son service de surveillance du dark web.

Rapporté par l'IA

OpenAI prévoit d'introduire un "mode adulte" pour ChatGPT qui autorise les sextos. Julie Carpenter, experte en interaction entre l'homme et l'intelligence artificielle, prévient que cela pourrait conduire à un cauchemar en matière de protection de la vie privée. Elle attribue l'anthropomorphisation des utilisateurs de chatbots à la conception des outils.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser