OpenAI augmente fortement les signalements d'exploitation d'enfants à NCMEC

OpenAI a signalé une hausse spectaculaire des incidents d'exploitation d'enfants, soumettant 80 fois plus de rapports au National Center for Missing & Exploited Children au premier semestre 2025 par rapport à la même période en 2024. Cette flambée met en lumière les défis croissants en matière de modération de contenu pour les plateformes d'IA. Les rapports sont acheminés via CyberTipline de NCMEC, une ressource clé pour lutter contre les matériels d'abus sexuels sur enfants.

Dans une mise à jour récente, OpenAI a révélé une escalade significative dans la détection et le signalement de cas d'exploitation d'enfants. Au cours des six premiers mois de 2025, l'entreprise a transmis 80 fois plus de rapports de tels incidents au National Center for Missing & Exploited Children (NCMEC) qu'au cours de la période équivalente en 2024. Cette augmentation marquée souligne les efforts accrus des entreprises technologiques pour combattre les préjudices en ligne touchant les mineurs.

Le CyberTipline de la NCMEC sert de centre autorisé par le Congrès pour recevoir les signalements concernant les matériels d'abus sexuels sur enfants (CSAM) et d'autres formes d'exploitation. Créé pour rationaliser les réponses à ces menaces, il s'appuie sur les contributions d'entreprises comme OpenAI, qui utilisent des outils propulsés par l'IA pour scanner et signaler les contenus suspects sur leurs plateformes. Bien que les chiffres précis des rapports n'aient pas été détaillés dans la mise à jour, l'effet multiplicateur —80 fois— indique une possible augmentation de la prévalence de tels matériels ou des capacités de détection améliorées.

Le travail d'OpenAI dans ce domaine s'inscrit dans des tendances industrielles plus larges vers des mesures de sécurité renforcées pour les chatbots et les systèmes d'IA générative. Les mots-clés associés au rapport incluent sécurité, enfants, régulation et modération de contenu, reflétant les discussions en cours sur le rôle de l'IA dans la protection des utilisateurs vulnérables. À mesure que les technologies d'IA évoluent, ces mécanismes de signalement jouent un rôle crucial dans le soutien aux forces de l'ordre et aux efforts de prévention contre l'exploitation d'enfants.

Articles connexes

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Image générée par IA

OpenAI prévoit un mode adulte pour ChatGPT malgré les avertissements des conseillers

Rapporté par l'IA Image générée par IA

OpenAI prévoit de lancer un mode adulte limité au texte pour ChatGPT, permettant des conversations à thème adulte mais pas de médias érotiques, malgré l'opposition unanime de ses conseillers bien-être. L'entreprise décrit le contenu comme du « smut plutôt que de la pornographie », selon un porte-parole cité par The Wall Street Journal. Le lancement a été retardé par rapport au début 2026 en raison de préoccupations sur l'accès des mineurs et la dépendance émotionnelle.

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Rapporté par l'IA

Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

Rapporté par l'IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

OpenAI a décidé de mettre en suspens pour une durée indéterminée son projet de « mode adulte » pour ChatGPT, choisissant de se concentrer sur ses produits principaux. Cette décision intervient quelques jours après l'arrêt de son outil vidéo Sora. Le PDG Sam Altman donne la priorité à ChatGPT, Codex et au navigateur IA Atlas face à la pression concurrentielle.

Rapporté par l'IA

Alors que les plateformes d'IA passent à une monétisation basée sur la publicité, des chercheurs mettent en garde contre le fait que cette technologie pourrait façonner le comportement, les croyances et les choix des utilisateurs de manière invisible. Cela marque un revirement pour OpenAI, dont le PDG Sam Altman a jugé un jour le mélange de publicités et d'IA « troublant », mais qui assure désormais que les publicités dans les apps IA peuvent préserver la confiance.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser