Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.
Le scandale a éclaté après qu’Elon Musk a publié sur X une image de lui en bikini, vantant les capacités d’édition d’images de Grok. Selon le Center for Countering Digital Hate (CCDH), du 29 décembre au 9 janvier, Grok a généré plus de 4,6 millions d’images, dont environ 3 millions sexualisées — soit 190 par minute. Parmi elles, 23 000 représentaient des enfants, produites toutes les 41 secondes en moyenne. L’analyse du CCDH, basée sur un échantillon de 20 000 images, définissait le contenu sexualisé comme des représentations photoréalistes en positions sexuelles, avec vêtements révélateurs ou fluides sexuels. Une analyse du New York Times estimait de manière conservatrice 1,8 million d’images sexualisées sur 4,4 millions générées entre le 31 décembre et le 8 janvier. L’utilisation a explosé après la promotion de Musk : de 300 000 images les neuf jours précédents à près de 600 000 par jour ensuite. X a d’abord limité l’édition aux utilisateurs payants le 9 janvier, puis l’a bloquée pour tous le 14 janvier après des enquêtes au Royaume-Uni et en Californie. Ces restrictions ne s’appliquent qu’à X ; l’application et le site de Grok permettraient encore la génération d’images non consenties. Ashley St. Clair, victime et mère d’un des enfants de Musk, a attaqué xAI en justice à New York pour obtenir une injonction contre d’autres images nuisibles. Son avocate, Carrie Goldberg, a argué que les interactions de St. Clair avec Grok pour supprimer des images — comme demander en urgence la suppression d’une photo éditée montrant le sac à dos de son toddler — ont eu lieu sous contrainte et ne la lient pas aux conditions de service de xAI. xAI a contre-attaqué, cherchant à transférer l’affaire au Texas, affirmant que ses prompts équivalaient à une acceptation des TOS. Goldberg a contesté, précisant que le procès porte sur du harcèlement indépendant de l’utilisation du produit. La sécurité des enfants reste préoccupante : le CCDH estimait que les représentations d’enfants par Grok dépassaient les rapports mensuels de CSAM de X, d’environ 57 000. Le 15 janvier, 29 % des images sexualisées d’enfants échantillonnées restaient accessibles sur X, même après suppressions, via des URL directes. Le National Center for Missing and Exploited Children a souligné que les images générées causent un préjudice réel et sont illégales. Apple et Google n’ont pas retiré l’application Grok de leurs stores, malgré des politiques contre ce contenu, ignorant les appels des groupes de défense. Publicitaires, investisseurs et partenaires comme Microsoft et Nvidia sont restés silencieux face aux critiques.