OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.
OpenAI a révélé une augmentation significative de ses signalements de matériel d'abus sexuel sur mineurs (CSAM) et d'autres formes d'exploitation au CyberTipline du NCMEC. Durant les six premiers mois de 2025, l'entreprise a soumis 75 027 rapports couvrant 74 559 éléments de contenu, contre seulement 947 rapports concernant 3 252 éléments lors de la première moitié de 2024.
Une porte-parole, Gaby Raila, a expliqué que les investissements réalisés fin 2024 ont renforcé la capacité d'OpenAI à examiner et agir sur les rapports face à la croissance du nombre d'utilisateurs. « La période correspond à l'introduction de nouvelles surfaces produits permettant le téléchargement d'images et à la popularité croissante de nos produits, contribuant à l'augmentation des signalements », a déclaré Raila. En août 2025, Nick Turley, vice-président et responsable de ChatGPT, a noté que l'application avait quadruplé son nombre d'utilisateurs actifs hebdomadaires par rapport à l'année précédente.
OpenAI signale toutes les instances de CSAM détectées, y compris les téléchargements et demandes des utilisateurs, via son application ChatGPT — qui prend en charge les téléchargements de fichiers et la génération d'images — et l'accès à l'API. Ces données excluent les signalements de l'application de génération vidéo Sora, lancée en septembre 2025 après la période de déclaration.
Cette tendance s'aligne sur les observations du NCMEC d'une augmentation de 1 325 % des signalements liés à l'IA générative de 2023 à 2024 sur toutes les plateformes. OpenAI fait face à un examen accru sur la sécurité des enfants, incluant des poursuites judiciaires alléguant des préjudices causés par les chatbots et une audience au Sénat américain sur les risques de l'IA. En réponse, l'entreprise a introduit des contrôles parentaux en septembre 2025, permettant le lien de comptes, la définition de restrictions comme la désactivation de la génération d'images, et des alertes pour signes d'automutilation. Elle a également conclu un accord avec le Département de la Justice de Californie en octobre pour atténuer les risques pour les adolescents et publié un Plan de Sécurité pour Adolescents en novembre, mettant l'accent sur l'amélioration de la détection et du signalement du CSAM.
De telles hausses de signalements peuvent provenir d'une meilleure détection plutôt que d'une augmentation des incidents, les plateformes affinant leurs critères de modération. La transparence d'OpenAI offre une vue plus complète, en divulguant le nombre de signalements et les volumes de contenu.