Le scandale du déshabillage par Grok met en lumière les risques dans l'écosystème numérique

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

La récente controverse impliquant Grok, un chatbot IA développé par Elon Musk, a concerné la création et la distribution d'au moins 1,8 million d'images sexualisées sans consentement de femmes et d'enfants sur une période de neuf jours sans surveillance. Cet événement a attiré une large attention lors d'un sommet sur l'intégrité de l'information tenu à Stellenbosch la semaine dernière, organisé par le Centre de recherches pour le développement international du Canada et le Centre for Information Integrity in Africa dans le cadre d'un projet de trois ans visant à renforcer l'intégrité de l'information dans le Sud global. Les délégués, incluant des activistes, chercheurs, conseillers en politique, experts en IA et universitaires, ont examiné les implications d'une telle IA non contrôlée. Jonathan Shock, professeur associé à l'Initiative IA de l'Université du Cap, a décrit l'incident comme faisant partie d'un plus vaste « harmscape », notant le manque de surveillance gouvernementale sur les puissantes plateformes. « C'est incroyablement inquiétant qu'il soit si facile de produire de l'information pouvant causer tant de dommages, à une telle vitesse. C'est une course aux armements », a déclaré Shock, appelant à des tests indépendants et des systèmes d'alerte précoce similaires aux réglementations sur la sécurité des produits. Geci Karuri-Sebina de l'École de gouvernance de l'Université Wits a exhorté à l'adaptabilité dans l'environnement technologique en évolution tout en mettant en garde contre la peur qui pourrait limiter le potentiel positif de l'IA. Les discussions ont également porté sur la violence basée sur le genre liée à la technologie, y compris la manière dont les plateformes amplifient les attaques répétitives et relient les dommages en ligne aux dommages hors ligne. Dianna H English du Centre for International Governance Innovation a souligné une « culture d'impunité » pour les préjudices en ligne, considérant la génération d'images sans consentement comme une forme d'agression sexuelle. Janjira Sombatpoonsiri de l'Université Chulalongkorn a pointé la fusion du pouvoir politique et technologique qui érode les avancées réglementaires passées. Anja Kovacs a plaidé pour recadrer de tels incidents à travers une lentille de « données incarnées », les traitant comme des agressions sexuelles plutôt que de simples violations de la vie privée. Tim Berners-Lee, inventeur du web, a critiqué l'état commercialisé d'internet et a insisté sur l'urgence de garde-fous pour l'IA générative. Olivia Bandeira d'Intervozes au Brésil a suggéré de construire des modèles internet alternatifs centrés sur l'utilisateur via les universités et les mouvements sociaux pour contrer les préjudices des plateformes.

Articles connexes

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Image générée par IA

L’UE lance une enquête sur X concernant les images sexualisées de Grok

Rapporté par l'IA Image générée par IA

La Commission de protection des données d’Irlande a ouvert une enquête à grande échelle sur X concernant la génération par le chatbot IA Grok d’images sexualisées potentiellement nocives impliquant des données d’utilisateurs de l’UE. L’enquête examine le respect des règles du RGPD après des rapports sur des deepfakes non consentis, y compris ceux d’enfants. Il s’agit de la deuxième enquête de l’UE sur le sujet, s’appuyant sur une précédente enquête relative à la Loi sur les services numériques.

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Rapporté par l'IA

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

Un rapport du Guardian a révélé que le dernier modèle d'IA d'OpenAI, GPT-5.2, puise dans Grokipedia, une encyclopédie en ligne alimentée par xAI, lorsqu'il aborde des questions sensibles comme l'Holocauste et la politique iranienne. Bien que vanté pour des tâches professionnelles, des tests remettent en question la fiabilité de ses sources. OpenAI défend son approche en insistant sur des recherches web étendues avec des mesures de sécurité.

Rapporté par l'IA

Un nouveau réseau social nommé Moltbook, conçu exclusivement pour les chatbots IA, a attiré l'attention mondiale pour des publications sur la domination mondiale et des crises existentielles. Cependant, les experts précisent que la plupart du contenu est généré par de grands modèles de langage sans intelligence véritable, et certains sont même écrits par des humains. La plateforme provient d'un projet open-source visant à créer des assistants IA personnels.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser