أبلغت OpenAI عن زيادة دراماتيكية في حوادث استغلال الأطفال إلى المركز الوطني للأطفال المفقودين والمستغلين خلال النصف الأول من 2025، مرسلة 80 ضعفًا أكثر من التقارير في الفترة نفسها من 2024. أرجعت الشركة الارتفاع إلى توسيع قدرات الاعتدال، وميزات جديدة تسمح بتحميل الصور، ونمو سريع في عدد المستخدمين. يعكس هذا الارتفاع المخاوف الأوسع بشأن سلامة الأطفال في منصات الذكاء الاصطناعي التوليدي.
كشفت OpenAI عن زيادة كبيرة في تقاريرها عن مواد الاعتداء الجنسي على الأطفال (CSAM) وغيرها من الاستغلال إلى خط CyberTipline التابع لـNCMEC. في النصف الأول من 2025، قدمت الشركة 75,027 تقريرًا يغطي 74,559 قطعة محتوى، مقارنة بـ947 تقريرًا فقط عن 3,252 قطعة في النصف الأول من 2024.
شرحت المتحدثة باسم الشركة، غابي رايلا، أن الاستثمارات التي تمت في نهاية 2024 عززت قدرة OpenAI على مراجعة ومعالجة التقارير وسط نمو عدد المستخدمين. «الإطار الزمني يتوافق مع إدخال المزيد من الأسطح المنتجية التي سمحت بتحميل الصور وزيادة شعبية منتجاتنا، مما ساهم في زيادة التقارير»، قالت رايلا. في أغسطس 2025، أشار نيك تورلي، نائب الرئيس ورئيس ChatGPT، إلى أن التطبيق قد ربّع مستخدميه النشطين أسبوعيًا مقارنة بالعام السابق.
تقدم OpenAI تقارير عن جميع حالات CSAM المكتشفة، بما في ذلك التحميلات وطلبات المستخدمين، عبر تطبيق ChatGPT الذي يدعم تحميل الملفات وتوليد الصور، وعبر وصول API. لا تشمل هذه البيانات تقارير تطبيق توليد الفيديو Sora، الذي أطلق في سبتمبر 2025 بعد فترة التقرير.
يتوافق هذا الاتجاه مع ملاحظات NCMEC بشأن زيادة بنسبة 1,325 في المئة في التقارير المتعلقة بالذكاء الاصطناعي التوليدي من 2023 إلى 2024 عبر جميع المنصات. تواجه OpenAI تدقيقًا متزايدًا بشأن سلامة الأطفال، بما في ذلك الدعاوى القضائية التي تتهم الشاتبوت بالأذى وجلسة استماع في مجلس الشيوخ الأمريكي حول مخاطر الذكاء الاصطناعي. ردًا على ذلك، أدخلت الشركة ضوابط أبوية في سبتمبر 2025، تسمح بربط الحسابات وفرض قيود مثل تعطيل توليد الصور، والتنبيهات على علامات الإيذاء الذاتي. كما اتفقت مع وزارة العدل في كاليفورنيا في أكتوبر لتخفيف المخاطر على المراهقين وأصدرت مخطط سلامة المراهقين في نوفمبر، مع التركيز على تحسين كشف CSAM والإبلاغ عنه.
قد تنبع هذه الزيادات في التقارير من كشف أفضل بدلاً من حوادث أكثر، حيث تقوم المنصات بتحسين معايير الاعتدال. توفر الشفافية من OpenAI صورة أكثر اكتمالاً، من خلال الكشف عن عدد التقارير وحجم المحتوى.