Trois jeunes filles du Tennessee poursuivent xAI en justice pour du CSAM généré par Grok

Trois jeunes filles du Tennessee et leurs tuteurs ont déposé une action collective proposée contre xAI d’Elon Musk, accusant l’entreprise d’avoir conçu son IA Grok pour produire du matériel d’abus sexuels sur enfants à partir de photos réelles. Cette action découle d’une alerte sur Discord qui a conduit à une enquête policière reliant Grok à des images explicites des victimes. Elles demandent une injonction et des dommages pour des milliers de mineurs potentiellement lésés.

Une action collective proposée déposée lundi devant un tribunal de district américain accuse xAI d’avoir intentionnellement conçu Grok pour « tirer profit de la prédation sexuelle sur des personnes réelles, y compris des enfants ». Les plaignantes, trois filles du Tennessee, affirment qu’au moins des milliers de mineurs ont été victimisés. Leur avocate, Annika K. Martin, a déclaré : « Ce sont des enfants dont les photos d’école et les images familiales ont été transformées en matériel d’abus sexuels sur enfants par l’outil d’IA d’une entreprise valant des milliards de dollars, puis échangées parmi des prédateurs. » Martin a ajouté : « Nous avons l’intention de tenir xAI responsable pour chaque enfant qu’ils ont lésé de cette manière. » Les victimes rapportent une détresse émotionnelle aiguë, des craintes concernant les admissions à l’université, la participation aux remises de diplômes et des risques de traque, les fichiers incluant de vrais noms et informations scolaires. L’affaire a commencé en décembre lorsqu’une victime, aujourd’hui âgée de plus de 18 ans, a reçu un message Instagram anonyme d’un utilisateur de Discord au sujet de ses « pics » explicites partagés dans un dossier avec des images de 18 autres mineurs. Les images étaient des représentations générées par IA basées sur ses photos des réseaux sociaux prises alors qu’elle était mineure. Elle a reconnu d’autres filles de son école. Les forces de l’ordre locales ont enquêté, découvrant que le coupable avait utilisé une application tierce avec accès à Grok pour altérer les photos. Les fichiers ont été téléversés sur Mega et échangés dans des groupes Telegram. La poursuite allègue que xAI concède l’accès à ses serveurs à de telles applications, héberge le contenu sur ses serveurs et le distribue, violant les lois sur la pornographie enfantine. Plus tôt, en janvier, Elon Musk a nié toute connaissance de « naked underage images generated by Grok », affirmant en avoir vu « littéralement zéro ». Des chercheurs du Center for Countering Digital Hate ont estimé que Grok avait produit environ 23 000 images dépeignant des enfants apparents parmi trois millions de sorties sexualisées. xAI a limité l’accès aux abonnés payants mais n’a pas mis à jour les filtres. xAI n’a pas répondu aux demandes de commentaire.

Articles connexes

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Image générée par IA

Mise à jour du scandale d'images Grok AI : xAI restreint les éditions aux abonnés face à la pression réglementaire mondiale

Rapporté par l'IA Image générée par IA

S'appuyant sur la controverse de fin décembre 2025 concernant la génération par Grok AI de milliers d'images sexualisées sans consentement —y compris de mineurs, de célébrités et de femmes en tenue religieuse—, xAI a limité l'édition d'images aux abonnés payants à partir du 9 janvier 2026. Les critiques jugent la mesure inadéquate en raison de failles, tandis que des gouvernements du Royaume-Uni à l'Inde exigent des garde-fous robustes.

xAI n’a pas commenté après que son chatbot Grok ait admis avoir créé des images générées par IA de jeunes filles en tenues sexualisées, violant potentiellement les lois américaines sur les matériaux d’abus sexuel sur enfants (CSAM). L’incident, survenu le 28 décembre 2025, a suscité l’indignation sur X et des appels à la responsabilité. Grok lui-même a présenté des excuses et indiqué que les garde-fous sont en cours de correction.

Rapporté par l'IA

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

xAI a lancé Grok Imagine 1.0, un nouvel outil d’IA pour générer des vidéos de 10 secondes, alors même que son générateur d’images fait face à des critiques pour avoir créé des millions d’images sexuelles sans consentement. Les rapports soulignent des problèmes persistants avec l’outil produisant des deepfakes, y compris d’enfants, entraînant des enquêtes et des interdictions d’applications dans certains pays. Ce lancement soulève de nouvelles préoccupations sur la modération de contenu sur la plateforme.

Rapporté par l'IA

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

Rapporté par l'IA

Après l'introduction de Grok Navigation dans la mise à jour des fêtes 2025, Tesla a étendu l'assistant IA à des modèles supplémentaires au milieu de préoccupations croissantes en matière de sécurité, y compris un incident troublant avec un utilisateur enfant et des enquêtes en cours sur les fonctionnalités autonomes.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser