Les signalements d'exploitation infantile d'OpenAI ont explosé début 2025

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

OpenAI a révélé une augmentation significative de ses signalements de matériel d'abus sexuel sur mineurs (CSAM) et d'autres formes d'exploitation au CyberTipline du NCMEC. Durant les six premiers mois de 2025, l'entreprise a soumis 75 027 rapports couvrant 74 559 éléments de contenu, contre seulement 947 rapports concernant 3 252 éléments lors de la première moitié de 2024.

Une porte-parole, Gaby Raila, a expliqué que les investissements réalisés fin 2024 ont renforcé la capacité d'OpenAI à examiner et agir sur les rapports face à la croissance du nombre d'utilisateurs. « La période correspond à l'introduction de nouvelles surfaces produits permettant le téléchargement d'images et à la popularité croissante de nos produits, contribuant à l'augmentation des signalements », a déclaré Raila. En août 2025, Nick Turley, vice-président et responsable de ChatGPT, a noté que l'application avait quadruplé son nombre d'utilisateurs actifs hebdomadaires par rapport à l'année précédente.

OpenAI signale toutes les instances de CSAM détectées, y compris les téléchargements et demandes des utilisateurs, via son application ChatGPT — qui prend en charge les téléchargements de fichiers et la génération d'images — et l'accès à l'API. Ces données excluent les signalements de l'application de génération vidéo Sora, lancée en septembre 2025 après la période de déclaration.

Cette tendance s'aligne sur les observations du NCMEC d'une augmentation de 1 325 % des signalements liés à l'IA générative de 2023 à 2024 sur toutes les plateformes. OpenAI fait face à un examen accru sur la sécurité des enfants, incluant des poursuites judiciaires alléguant des préjudices causés par les chatbots et une audience au Sénat américain sur les risques de l'IA. En réponse, l'entreprise a introduit des contrôles parentaux en septembre 2025, permettant le lien de comptes, la définition de restrictions comme la désactivation de la génération d'images, et des alertes pour signes d'automutilation. Elle a également conclu un accord avec le Département de la Justice de Californie en octobre pour atténuer les risques pour les adolescents et publié un Plan de Sécurité pour Adolescents en novembre, mettant l'accent sur l'amélioration de la détection et du signalement du CSAM.

De telles hausses de signalements peuvent provenir d'une meilleure détection plutôt que d'une augmentation des incidents, les plateformes affinant leurs critères de modération. La transparence d'OpenAI offre une vue plus complète, en divulguant le nombre de signalements et les volumes de contenu.

Articles connexes

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Image générée par IA

OpenAI prévoit un mode adulte pour ChatGPT malgré les avertissements des conseillers

Rapporté par l'IA Image générée par IA

OpenAI prévoit de lancer un mode adulte limité au texte pour ChatGPT, permettant des conversations à thème adulte mais pas de médias érotiques, malgré l'opposition unanime de ses conseillers bien-être. L'entreprise décrit le contenu comme du « smut plutôt que de la pornographie », selon un porte-parole cité par The Wall Street Journal. Le lancement a été retardé par rapport au début 2026 en raison de préoccupations sur l'accès des mineurs et la dépendance émotionnelle.

OpenAI a signalé une hausse spectaculaire des incidents d'exploitation d'enfants, soumettant 80 fois plus de rapports au National Center for Missing & Exploited Children au premier semestre 2025 par rapport à la même période en 2024. Cette flambée met en lumière les défis croissants en matière de modération de contenu pour les plateformes d'IA. Les rapports sont acheminés via CyberTipline de NCMEC, une ressource clé pour lutter contre les matériels d'abus sexuels sur enfants.

Rapporté par l'IA

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Une étude de l’Université de Cambridge sur les jouets dotés d’IA comme Gabbo révèle qu’ils interprètent souvent mal les signaux émotionnels des enfants et perturbent le jeu développemental, malgré des bénéfices pour les compétences linguistiques. Les chercheurs, dirigés par Jenny Gibson et Emily Goodacre, appellent à une réglementation, un étiquetage clair, une supervision parentale et une collaboration entre entreprises technologiques et experts en développement de l’enfant.

Rapporté par l'IA

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

xAI a lancé Grok Imagine 1.0, un nouvel outil d’IA pour générer des vidéos de 10 secondes, alors même que son générateur d’images fait face à des critiques pour avoir créé des millions d’images sexuelles sans consentement. Les rapports soulignent des problèmes persistants avec l’outil produisant des deepfakes, y compris d’enfants, entraînant des enquêtes et des interdictions d’applications dans certains pays. Ce lancement soulève de nouvelles préoccupations sur la modération de contenu sur la plateforme.

Rapporté par l'IA

Les régulateurs australiens sont sur le point d'exiger des magasins d'applications qu'ils bloquent les services d'IA dépourvus de vérification d'âge pour protéger les utilisateurs plus jeunes du contenu mature. Cette mesure intervient avant l'échéance du 9 mars, avec des amendes potentielles pour les entreprises d'IA non conformes. Seule une fraction des principaux services de chat IA de la région a mis en œuvre de telles mesures.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser