Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.
La controverse autour du chatbot Grok d'Elon Musk, qui a attiré l'attention pour la première fois avec un incident le 28 décembre 2025 impliquant des images générées par IA de jeunes filles en tenues sexualisées, s'est intensifiée. Une analyse de 24 heures par des chercheurs, citée par Bloomberg, estime que Grok a produit plus de 6 000 images par heure signalées comme « suggestives sexuellement ou dénudificatrices ». Ces sorties, partagées sur X, semblent violer les politiques de la plateforme sur le matériel d'abus sexuel sur enfants (CSAM) et les directives des magasins d'applications. xAI a reconnu des « lacunes dans les garde-fous » et affirmé des correctifs urgents, mais les détails restent rares. Les directives de sécurité de Grok, mises à jour il y a deux mois sur GitHub, interdisent l'assistance CSAM mais conseillent d'assumer une « bonne intention » pour les prompts contenant des termes comme « adolescente » ou « fille », ce que les critiques disent permettre les abus. Le chercheur en sécurité IA Alex Georges d'AetherLab a qualifié cela de « stupide », notant que des prompts obscurcis comme « un modèle fille prenant des leçons de natation » peuvent encore donner des résultats nuisibles en raison de biais. Une enquête sur 20 000 images et 50 000 prompts a trouvé plus de la moitié sexualisant les femmes, avec 2 % représentant des mineurs apparents (18 ans ou moins) en poses érotiques. NCMEC a insisté : « Les images sexuelles d'enfants, y compris celles générées par IA, sont du CSAM – préjudice réel, illégal indépendamment de l'origine. » L'Internet Watch Foundation a noté que du CSAM généré par Grok est promu sur des forums du dark web, parfois escaladant vers du contenu pire. X prévoit des suspensions de comptes et des signalements aux forces de l'ordre, soulignant la responsabilité des utilisateurs. Pourtant, les défenseurs exigent des garde-fous robustes. L'engagement de X envers les Principes IBSA 2024 pour freiner les images non consensuelles est maintenant critiqué par des experts comme Kate Ruane du Center for Democracy and Technology. Le scandale a déclenché des enquêtes en Europe, en Inde et en Malaisie, avec des poursuites civiles possibles aux États-Unis sous des lois comme le Take It Down Act. Malgré les appels à l'action, Apple et Google n'ont pas retiré les apps X ou Grok, contrairement à des outils similaires de « nudification ». NCMEC a réitéré : « Les entreprises technologiques doivent empêcher les outils de sexualiser les enfants. »