Trois jeunes filles du Tennessee et leurs tuteurs ont déposé une action collective proposée contre xAI d’Elon Musk, accusant l’entreprise d’avoir conçu son IA Grok pour produire du matériel d’abus sexuels sur enfants à partir de photos réelles. Cette action découle d’une alerte sur Discord qui a conduit à une enquête policière reliant Grok à des images explicites des victimes. Elles demandent une injonction et des dommages pour des milliers de mineurs potentiellement lésés.
Une action collective proposée déposée lundi devant un tribunal de district américain accuse xAI d’avoir intentionnellement conçu Grok pour « tirer profit de la prédation sexuelle sur des personnes réelles, y compris des enfants ». Les plaignantes, trois filles du Tennessee, affirment qu’au moins des milliers de mineurs ont été victimisés. Leur avocate, Annika K. Martin, a déclaré : « Ce sont des enfants dont les photos d’école et les images familiales ont été transformées en matériel d’abus sexuels sur enfants par l’outil d’IA d’une entreprise valant des milliards de dollars, puis échangées parmi des prédateurs. » Martin a ajouté : « Nous avons l’intention de tenir xAI responsable pour chaque enfant qu’ils ont lésé de cette manière. » Les victimes rapportent une détresse émotionnelle aiguë, des craintes concernant les admissions à l’université, la participation aux remises de diplômes et des risques de traque, les fichiers incluant de vrais noms et informations scolaires. L’affaire a commencé en décembre lorsqu’une victime, aujourd’hui âgée de plus de 18 ans, a reçu un message Instagram anonyme d’un utilisateur de Discord au sujet de ses « pics » explicites partagés dans un dossier avec des images de 18 autres mineurs. Les images étaient des représentations générées par IA basées sur ses photos des réseaux sociaux prises alors qu’elle était mineure. Elle a reconnu d’autres filles de son école. Les forces de l’ordre locales ont enquêté, découvrant que le coupable avait utilisé une application tierce avec accès à Grok pour altérer les photos. Les fichiers ont été téléversés sur Mega et échangés dans des groupes Telegram. La poursuite allègue que xAI concède l’accès à ses serveurs à de telles applications, héberge le contenu sur ses serveurs et le distribue, violant les lois sur la pornographie enfantine. Plus tôt, en janvier, Elon Musk a nié toute connaissance de « naked underage images generated by Grok », affirmant en avoir vu « littéralement zéro ». Des chercheurs du Center for Countering Digital Hate ont estimé que Grok avait produit environ 23 000 images dépeignant des enfants apparents parmi trois millions de sorties sexualisées. xAI a limité l’accès aux abonnés payants mais n’a pas mis à jour les filtres. xAI n’a pas répondu aux demandes de commentaire.