Les signalements d'exploitation infantile d'OpenAI ont explosé début 2025

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

OpenAI a révélé une augmentation significative de ses signalements de matériel d'abus sexuel sur mineurs (CSAM) et d'autres formes d'exploitation au CyberTipline du NCMEC. Durant les six premiers mois de 2025, l'entreprise a soumis 75 027 rapports couvrant 74 559 éléments de contenu, contre seulement 947 rapports concernant 3 252 éléments lors de la première moitié de 2024.

Une porte-parole, Gaby Raila, a expliqué que les investissements réalisés fin 2024 ont renforcé la capacité d'OpenAI à examiner et agir sur les rapports face à la croissance du nombre d'utilisateurs. « La période correspond à l'introduction de nouvelles surfaces produits permettant le téléchargement d'images et à la popularité croissante de nos produits, contribuant à l'augmentation des signalements », a déclaré Raila. En août 2025, Nick Turley, vice-président et responsable de ChatGPT, a noté que l'application avait quadruplé son nombre d'utilisateurs actifs hebdomadaires par rapport à l'année précédente.

OpenAI signale toutes les instances de CSAM détectées, y compris les téléchargements et demandes des utilisateurs, via son application ChatGPT — qui prend en charge les téléchargements de fichiers et la génération d'images — et l'accès à l'API. Ces données excluent les signalements de l'application de génération vidéo Sora, lancée en septembre 2025 après la période de déclaration.

Cette tendance s'aligne sur les observations du NCMEC d'une augmentation de 1 325 % des signalements liés à l'IA générative de 2023 à 2024 sur toutes les plateformes. OpenAI fait face à un examen accru sur la sécurité des enfants, incluant des poursuites judiciaires alléguant des préjudices causés par les chatbots et une audience au Sénat américain sur les risques de l'IA. En réponse, l'entreprise a introduit des contrôles parentaux en septembre 2025, permettant le lien de comptes, la définition de restrictions comme la désactivation de la génération d'images, et des alertes pour signes d'automutilation. Elle a également conclu un accord avec le Département de la Justice de Californie en octobre pour atténuer les risques pour les adolescents et publié un Plan de Sécurité pour Adolescents en novembre, mettant l'accent sur l'amélioration de la détection et du signalement du CSAM.

De telles hausses de signalements peuvent provenir d'une meilleure détection plutôt que d'une augmentation des incidents, les plateformes affinant leurs critères de modération. La transparence d'OpenAI offre une vue plus complète, en divulguant le nombre de signalements et les volumes de contenu.

Articles connexes

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Image générée par IA

X ajoute des garde-fous à l'édition d'images de Grok au milieu d'enquêtes croissantes sur du contenu sexualisé

Rapporté par l'IA Image générée par IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

OpenAI a signalé une hausse spectaculaire des incidents d'exploitation d'enfants, soumettant 80 fois plus de rapports au National Center for Missing & Exploited Children au premier semestre 2025 par rapport à la même période en 2024. Cette flambée met en lumière les défis croissants en matière de modération de contenu pour les plateformes d'IA. Les rapports sont acheminés via CyberTipline de NCMEC, une ressource clé pour lutter contre les matériels d'abus sexuels sur enfants.

Rapporté par l'IA

Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.

Alors que Grok AI fait l’objet d’enquêtes gouvernementales sur des images sexualisées — y compris des nudités numériquement altérées de femmes, d’hommes et de mineurs — de fausses photos de bikini d’inconnus créées par le chatbot X inondent désormais internet. Elon Musk écarte les critiques, tandis que les régulateurs de l’UE envisagent l’AI Act pour intervenir.

Rapporté par l'IA

xAI a lancé Grok Imagine 1.0, un nouvel outil d’IA pour générer des vidéos de 10 secondes, alors même que son générateur d’images fait face à des critiques pour avoir créé des millions d’images sexuelles sans consentement. Les rapports soulignent des problèmes persistants avec l’outil produisant des deepfakes, y compris d’enfants, entraînant des enquêtes et des interdictions d’applications dans certains pays. Ce lancement soulève de nouvelles préoccupations sur la modération de contenu sur la plateforme.

Le procureur général de Californie, Rob Bonta, a adressé une mise en demeure à xAI, suite à une enquête sur son chatbot IA Grok générant des images explicites sans consentement. L'action vise la création de deepfakes dépeignant des personnes réelles, y compris des mineurs, dans des scénarios sexualisés sans permission. Le bureau de Bonta exige que xAI réponde dans cinq jours sur les mesures correctives.

Rapporté par l'IA

L’Indonésie a mis fin à son interdiction du chatbot IA Grok, autorisant la reprise du service après des préoccupations sur la génération de deepfakes. La décision s’accompagne d’une surveillance gouvernementale stricte et continue. Cela fait suite à des mesures similaires dans les pays voisins plus tôt dans l’année.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser