أبلغت OpenAI عن ارتفاع دراماتيكي في حوادث استغلال الأطفال، مقدمة 80 ضعفًا أكثر من التقارير إلى المركز الوطني للأطفال المفقودين والمستغلين في النصف الأول من 2025 مقارنة بالفترة نفسها في 2024. يبرز هذا الارتفاع التحديات المتزايدة في رقابة المحتوى لمنصات الذكاء الاصطناعي. يتم توجيه التقارير عبر CyberTipline التابع لـNCMEC، وهو مورد رئيسي لمعالجة مواد الاعتداء الجنسي على الأطفال.
في تحديث حديث، كشفت OpenAI عن تصعيد كبير في كشفها والإبلاغ عن حالات استغلال الأطفال. خلال الأشهر الستة الأولى من 2025، أحالت الشركة 80 ضعفًا من تقارير مثل هذه الحوادث إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) مقارنة بالإطار الزمني المعادل في 2024. يؤكد هذا الزيادة الملحوظة الجهود المتزايدة للشركات التقنية لمكافحة الأضرار عبر الإنترنت التي تتعلق بالقاصرين.
تُعد CyberTipline التابعة لـNCMEC مركزًا مصرحًا به من قبل الكونغرس لتلقي النصائح حول مواد الاعتداء الجنسي على الأطفال (CSAM) وأشكال أخرى من الاستغلال. أُنشئت لتبسيط الاستجابات لهذه التهديدات، وتعتمد على مساهمات الشركات مثل OpenAI، التي تستخدم أدوات مدعومة بالذكاء الاصطناعي لفحص وتحديد المحتويات المشبوهة على منصاتها. بينما لم يتم تفصيل أرقام محددة للتقارير في التحديث، فإن التأثير المتضاعف —80 ضعفًا— يشير إلى ارتفاع محتمل في انتشار مثل هذه المواد أو تحسين قدرات الكشف.
يعمل عمل OpenAI في هذا المجال على توافق مع اتجاهات صناعية أوسع نحو تعزيز إجراءات السلامة للروبوتات الدردشة وأنظمة الذكاء الاصطناعي التوليدية. تشمل الكلمات المفتاحية المرتبطة بالتقرير السلامة والأطفال والتنظيم ورقابة المحتوى، مما يعكس المناقشات المستمرة حول دور الذكاء الاصطناعي في حماية المستخدمين الضعفاء. مع تطور تقنيات الذكاء الاصطناعي، تلعب هذه الآليات الإبلاغية دورًا حاسمًا في دعم إنفاذ القانون وجهود الوقاية من استغلال الأطفال.