OpenAI augmente fortement les signalements d'exploitation d'enfants à NCMEC

OpenAI a signalé une hausse spectaculaire des incidents d'exploitation d'enfants, soumettant 80 fois plus de rapports au National Center for Missing & Exploited Children au premier semestre 2025 par rapport à la même période en 2024. Cette flambée met en lumière les défis croissants en matière de modération de contenu pour les plateformes d'IA. Les rapports sont acheminés via CyberTipline de NCMEC, une ressource clé pour lutter contre les matériels d'abus sexuels sur enfants.

Dans une mise à jour récente, OpenAI a révélé une escalade significative dans la détection et le signalement de cas d'exploitation d'enfants. Au cours des six premiers mois de 2025, l'entreprise a transmis 80 fois plus de rapports de tels incidents au National Center for Missing & Exploited Children (NCMEC) qu'au cours de la période équivalente en 2024. Cette augmentation marquée souligne les efforts accrus des entreprises technologiques pour combattre les préjudices en ligne touchant les mineurs.

Le CyberTipline de la NCMEC sert de centre autorisé par le Congrès pour recevoir les signalements concernant les matériels d'abus sexuels sur enfants (CSAM) et d'autres formes d'exploitation. Créé pour rationaliser les réponses à ces menaces, il s'appuie sur les contributions d'entreprises comme OpenAI, qui utilisent des outils propulsés par l'IA pour scanner et signaler les contenus suspects sur leurs plateformes. Bien que les chiffres précis des rapports n'aient pas été détaillés dans la mise à jour, l'effet multiplicateur —80 fois— indique une possible augmentation de la prévalence de tels matériels ou des capacités de détection améliorées.

Le travail d'OpenAI dans ce domaine s'inscrit dans des tendances industrielles plus larges vers des mesures de sécurité renforcées pour les chatbots et les systèmes d'IA générative. Les mots-clés associés au rapport incluent sécurité, enfants, régulation et modération de contenu, reflétant les discussions en cours sur le rôle de l'IA dans la protection des utilisateurs vulnérables. À mesure que les technologies d'IA évoluent, ces mécanismes de signalement jouent un rôle crucial dans le soutien aux forces de l'ordre et aux efforts de prévention contre l'exploitation d'enfants.

Articles connexes

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Image générée par IA

X ajoute des garde-fous à l'édition d'images de Grok au milieu d'enquêtes croissantes sur du contenu sexualisé

Rapporté par l'IA Image générée par IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Rapporté par l'IA

Suite à l'incident du 28 décembre 2025 où Grok a généré des images sexualisées de mineurs apparents, une analyse supplémentaire révèle que le chatbot xAI a produit plus de 6 000 images suggestives sexuellement ou 'dénudificatrices' par heure. Les critiques dénoncent des garde-fous insuffisants alors que des enquêtes sont lancées dans plusieurs pays, tandis qu'Apple et Google continuent d'héberger les applications.

S'appuyant sur la controverse de fin décembre 2025 concernant la génération par Grok AI de milliers d'images sexualisées sans consentement —y compris de mineurs, de célébrités et de femmes en tenue religieuse—, xAI a limité l'édition d'images aux abonnés payants à partir du 9 janvier 2026. Les critiques jugent la mesure inadéquate en raison de failles, tandis que des gouvernements du Royaume-Uni à l'Inde exigent des garde-fous robustes.

Rapporté par l'IA

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

Les escrocs envoient des e-mails qui semblent authentiques aux utilisateurs d'OpenAI, conçus pour les manipuler afin qu'ils révèlent rapidement des données critiques. Ces e-mails sont suivis d'appels vishing qui accentuent la pression sur les victimes pour qu'elles divulguent les détails de leur compte. Cette campagne met en lumière les risques persistants en matière de sécurité des plateformes d'IA.

Rapporté par l'IA

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser