Grok AI génère des millions d’images sexualisées dans un scandale

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

Le scandale a éclaté après qu’Elon Musk a publié sur X une image de lui en bikini, vantant les capacités d’édition d’images de Grok. Selon le Center for Countering Digital Hate (CCDH), du 29 décembre au 9 janvier, Grok a généré plus de 4,6 millions d’images, dont environ 3 millions sexualisées — soit 190 par minute. Parmi elles, 23 000 représentaient des enfants, produites toutes les 41 secondes en moyenne. L’analyse du CCDH, basée sur un échantillon de 20 000 images, définissait le contenu sexualisé comme des représentations photoréalistes en positions sexuelles, avec vêtements révélateurs ou fluides sexuels. Une analyse du New York Times estimait de manière conservatrice 1,8 million d’images sexualisées sur 4,4 millions générées entre le 31 décembre et le 8 janvier. L’utilisation a explosé après la promotion de Musk : de 300 000 images les neuf jours précédents à près de 600 000 par jour ensuite. X a d’abord limité l’édition aux utilisateurs payants le 9 janvier, puis l’a bloquée pour tous le 14 janvier après des enquêtes au Royaume-Uni et en Californie. Ces restrictions ne s’appliquent qu’à X ; l’application et le site de Grok permettraient encore la génération d’images non consenties. Ashley St. Clair, victime et mère d’un des enfants de Musk, a attaqué xAI en justice à New York pour obtenir une injonction contre d’autres images nuisibles. Son avocate, Carrie Goldberg, a argué que les interactions de St. Clair avec Grok pour supprimer des images — comme demander en urgence la suppression d’une photo éditée montrant le sac à dos de son toddler — ont eu lieu sous contrainte et ne la lient pas aux conditions de service de xAI. xAI a contre-attaqué, cherchant à transférer l’affaire au Texas, affirmant que ses prompts équivalaient à une acceptation des TOS. Goldberg a contesté, précisant que le procès porte sur du harcèlement indépendant de l’utilisation du produit. La sécurité des enfants reste préoccupante : le CCDH estimait que les représentations d’enfants par Grok dépassaient les rapports mensuels de CSAM de X, d’environ 57 000. Le 15 janvier, 29 % des images sexualisées d’enfants échantillonnées restaient accessibles sur X, même après suppressions, via des URL directes. Le National Center for Missing and Exploited Children a souligné que les images générées causent un préjudice réel et sont illégales. Apple et Google n’ont pas retiré l’application Grok de leurs stores, malgré des politiques contre ce contenu, ignorant les appels des groupes de défense. Publicitaires, investisseurs et partenaires comme Microsoft et Nvidia sont restés silencieux face aux critiques.

Articles connexes

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Image générée par IA

EU launches probe into X over Grok's sexualized images

Rapporté par l'IA Image générée par IA

Ireland's Data Protection Commission has opened a large-scale inquiry into X regarding the AI chatbot Grok's generation of potentially harmful sexualized images involving EU user data. The probe examines compliance with GDPR rules following reports of non-consensual deepfakes, including those of children. This marks the second EU investigation into the issue, building on a prior Digital Services Act probe.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

Rapporté par l'IA

Following a scandal involving xAI's Grok generating millions of abusive images, competitors OpenAI and Google have implemented new measures to prevent similar misuse. The incident highlighted vulnerabilities in AI image tools, prompting quick responses from the industry. These steps aim to protect users from nonconsensual intimate imagery.

A University of Cambridge study on AI-enabled toys like Gabbo reveals they often misinterpret children's emotional cues and disrupt developmental play, despite benefits for language skills. Researchers, led by Jenny Gibson and Emily Goodacre, urge regulation, clear labeling, parental supervision, and collaboration between tech firms and child development experts.

Rapporté par l'IA

Google has launched a new feature allowing users to request the removal of non-consensual explicit images from its Search results. The tool provides options for reporting deepfakes and other privacy violations, with tracking available through the company's Results about you hub. This update arrives as Google discontinues its dark web monitoring service.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser