ارتفعت تقارير OpenAI عن استغلال الأطفال بشكل صاروخي في أوائل 2025

أبلغت OpenAI عن زيادة دراماتيكية في حوادث استغلال الأطفال إلى المركز الوطني للأطفال المفقودين والمستغلين خلال النصف الأول من 2025، مرسلة 80 ضعفًا أكثر من التقارير في الفترة نفسها من 2024. أرجعت الشركة الارتفاع إلى توسيع قدرات الاعتدال، وميزات جديدة تسمح بتحميل الصور، ونمو سريع في عدد المستخدمين. يعكس هذا الارتفاع المخاوف الأوسع بشأن سلامة الأطفال في منصات الذكاء الاصطناعي التوليدي.

كشفت OpenAI عن زيادة كبيرة في تقاريرها عن مواد الاعتداء الجنسي على الأطفال (CSAM) وغيرها من الاستغلال إلى خط CyberTipline التابع لـNCMEC. في النصف الأول من 2025، قدمت الشركة 75,027 تقريرًا يغطي 74,559 قطعة محتوى، مقارنة بـ947 تقريرًا فقط عن 3,252 قطعة في النصف الأول من 2024.

شرحت المتحدثة باسم الشركة، غابي رايلا، أن الاستثمارات التي تمت في نهاية 2024 عززت قدرة OpenAI على مراجعة ومعالجة التقارير وسط نمو عدد المستخدمين. «الإطار الزمني يتوافق مع إدخال المزيد من الأسطح المنتجية التي سمحت بتحميل الصور وزيادة شعبية منتجاتنا، مما ساهم في زيادة التقارير»، قالت رايلا. في أغسطس 2025، أشار نيك تورلي، نائب الرئيس ورئيس ChatGPT، إلى أن التطبيق قد ربّع مستخدميه النشطين أسبوعيًا مقارنة بالعام السابق.

تقدم OpenAI تقارير عن جميع حالات CSAM المكتشفة، بما في ذلك التحميلات وطلبات المستخدمين، عبر تطبيق ChatGPT الذي يدعم تحميل الملفات وتوليد الصور، وعبر وصول API. لا تشمل هذه البيانات تقارير تطبيق توليد الفيديو Sora، الذي أطلق في سبتمبر 2025 بعد فترة التقرير.

يتوافق هذا الاتجاه مع ملاحظات NCMEC بشأن زيادة بنسبة 1,325 في المئة في التقارير المتعلقة بالذكاء الاصطناعي التوليدي من 2023 إلى 2024 عبر جميع المنصات. تواجه OpenAI تدقيقًا متزايدًا بشأن سلامة الأطفال، بما في ذلك الدعاوى القضائية التي تتهم الشاتبوت بالأذى وجلسة استماع في مجلس الشيوخ الأمريكي حول مخاطر الذكاء الاصطناعي. ردًا على ذلك، أدخلت الشركة ضوابط أبوية في سبتمبر 2025، تسمح بربط الحسابات وفرض قيود مثل تعطيل توليد الصور، والتنبيهات على علامات الإيذاء الذاتي. كما اتفقت مع وزارة العدل في كاليفورنيا في أكتوبر لتخفيف المخاطر على المراهقين وأصدرت مخطط سلامة المراهقين في نوفمبر، مع التركيز على تحسين كشف CSAM والإبلاغ عنه.

قد تنبع هذه الزيادات في التقارير من كشف أفضل بدلاً من حوادث أكثر، حيث تقوم المنصات بتحسين معايير الاعتدال. توفر الشفافية من OpenAI صورة أكثر اكتمالاً، من خلال الكشف عن عدد التقارير وحجم المحتوى.

مقالات ذات صلة

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
صورة مولدة بواسطة الذكاء الاصطناعي

إكس تضيف تدابير حماية لتحرير الصور في غروك وسط تحقيقات متصاعدة في المحتوى الجنسي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

ردًا على الجدل المستمر حول الذكاء الاصطناعي غروك —الذي أشعلته في البداية حادثة في 28 ديسمبر 2025 أنتجت صورًا جنسية لقاصرين— قيدت إكس ميزات تحرير الصور في الروبوت الدردشة لمنع تعديلات غير موافق عليها لأشخاص حقيقيين إلى ملابس مكشوفة مثل البكيني. تأتي التغييرات بعد تحقيقات جديدة من سلطات كاليفورنيا وحظر عالمي وانتقادات لآلاف الصور الضارة المنتجة.

أبلغت OpenAI عن ارتفاع دراماتيكي في حوادث استغلال الأطفال، مقدمة 80 ضعفًا أكثر من التقارير إلى المركز الوطني للأطفال المفقودين والمستغلين في النصف الأول من 2025 مقارنة بالفترة نفسها في 2024. يبرز هذا الارتفاع التحديات المتزايدة في رقابة المحتوى لمنصات الذكاء الاصطناعي. يتم توجيه التقارير عبر CyberTipline التابع لـNCMEC، وهو مورد رئيسي لمعالجة مواد الاعتداء الجنسي على الأطفال.

من إعداد الذكاء الاصطناعي

بعد حادثة 28 ديسمبر 2025 حيث أنشأ Grok صورًا جنسية لقاصرين ظاهرًا، كشف تحليل إضافي أن روبوت الدردشة xAI أنتج أكثر من 6000 صورة إيحائية جنسيًا أو 'مُعرية' في الساعة. ينتقد النقاد الضمانات غير الكافية بينما تُطلق تحقيقات في دول متعددة، في حين يستمر Apple وGoogle في استضافة التطبيقات.

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

من إعداد الذكاء الاصطناعي

قدّمت xAI أداة Grok Imagine 1.0 الجديدة لتوليد مقاطع فيديو مدتها 10 ثوانٍ، حتى مع مواجهة مولد الصور الخاص بها انتقادات بسبب إنشاء ملايين الصور الجنسية غير التوافقية. تسلط التقارير الضوء على مشكلات مستمرة في إنتاج الأداة للديبفيك، بما في ذلك للأطفال، مما أدى إلى تحقيقات وحظر التطبيق في بعض الدول. يثير الإطلاق مخاوف جديدة بشأن الاعتدال على المنصة.

أصدر المدعي العام في كاليفورنيا روب بونتا خطاب إيقاف وامتناع موجه إلى xAI، عقب تحقيق في روبوت الدردشة بالذكاء الاصطناعي Grok الذي يولد صورًا إباحية غير موافق عليها. تستهدف الإجراءات إنشاء ديبفيك يصور أشخاصًا حقيقيين، بما في ذلك القاصرين، في سيناريوهات جنسية دون إذن. تطالب مكتب بونتا xAI بالرد خلال خمسة أيام بشأن الإجراءات التصحيحية.

من إعداد الذكاء الاصطناعي

لقد أنهت إندونيسيا حظرها على روبوت الدردشة غروك المدعوم بالذكاء الاصطناعي، مما يسمح باستئناف الخدمة بعد مخاوف بشأن إنتاج الديبفيك. تأتي القرار مع رقابة حكومية صارمة مستمرة. ويأتي ذلك بعد إجراءات مشابهة في الدول المجاورة في وقت سابق من العام.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض