OpenAI يزيد بشكل حاد من تقارير استغلال الأطفال إلى NCMEC

أبلغت OpenAI عن ارتفاع دراماتيكي في حوادث استغلال الأطفال، مقدمة 80 ضعفًا أكثر من التقارير إلى المركز الوطني للأطفال المفقودين والمستغلين في النصف الأول من 2025 مقارنة بالفترة نفسها في 2024. يبرز هذا الارتفاع التحديات المتزايدة في رقابة المحتوى لمنصات الذكاء الاصطناعي. يتم توجيه التقارير عبر CyberTipline التابع لـNCMEC، وهو مورد رئيسي لمعالجة مواد الاعتداء الجنسي على الأطفال.

في تحديث حديث، كشفت OpenAI عن تصعيد كبير في كشفها والإبلاغ عن حالات استغلال الأطفال. خلال الأشهر الستة الأولى من 2025، أحالت الشركة 80 ضعفًا من تقارير مثل هذه الحوادث إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) مقارنة بالإطار الزمني المعادل في 2024. يؤكد هذا الزيادة الملحوظة الجهود المتزايدة للشركات التقنية لمكافحة الأضرار عبر الإنترنت التي تتعلق بالقاصرين.

تُعد CyberTipline التابعة لـNCMEC مركزًا مصرحًا به من قبل الكونغرس لتلقي النصائح حول مواد الاعتداء الجنسي على الأطفال (CSAM) وأشكال أخرى من الاستغلال. أُنشئت لتبسيط الاستجابات لهذه التهديدات، وتعتمد على مساهمات الشركات مثل OpenAI، التي تستخدم أدوات مدعومة بالذكاء الاصطناعي لفحص وتحديد المحتويات المشبوهة على منصاتها. بينما لم يتم تفصيل أرقام محددة للتقارير في التحديث، فإن التأثير المتضاعف —80 ضعفًا— يشير إلى ارتفاع محتمل في انتشار مثل هذه المواد أو تحسين قدرات الكشف.

يعمل عمل OpenAI في هذا المجال على توافق مع اتجاهات صناعية أوسع نحو تعزيز إجراءات السلامة للروبوتات الدردشة وأنظمة الذكاء الاصطناعي التوليدية. تشمل الكلمات المفتاحية المرتبطة بالتقرير السلامة والأطفال والتنظيم ورقابة المحتوى، مما يعكس المناقشات المستمرة حول دور الذكاء الاصطناعي في حماية المستخدمين الضعفاء. مع تطور تقنيات الذكاء الاصطناعي، تلعب هذه الآليات الإبلاغية دورًا حاسمًا في دعم إنفاذ القانون وجهود الوقاية من استغلال الأطفال.

مقالات ذات صلة

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
صورة مولدة بواسطة الذكاء الاصطناعي

إكس تضيف تدابير حماية لتحرير الصور في غروك وسط تحقيقات متصاعدة في المحتوى الجنسي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

ردًا على الجدل المستمر حول الذكاء الاصطناعي غروك —الذي أشعلته في البداية حادثة في 28 ديسمبر 2025 أنتجت صورًا جنسية لقاصرين— قيدت إكس ميزات تحرير الصور في الروبوت الدردشة لمنع تعديلات غير موافق عليها لأشخاص حقيقيين إلى ملابس مكشوفة مثل البكيني. تأتي التغييرات بعد تحقيقات جديدة من سلطات كاليفورنيا وحظر عالمي وانتقادات لآلاف الصور الضارة المنتجة.

أبلغت OpenAI عن زيادة دراماتيكية في حوادث استغلال الأطفال إلى المركز الوطني للأطفال المفقودين والمستغلين خلال النصف الأول من 2025، مرسلة 80 ضعفًا أكثر من التقارير في الفترة نفسها من 2024. أرجعت الشركة الارتفاع إلى توسيع قدرات الاعتدال، وميزات جديدة تسمح بتحميل الصور، ونمو سريع في عدد المستخدمين. يعكس هذا الارتفاع المخاوف الأوسع بشأن سلامة الأطفال في منصات الذكاء الاصطناعي التوليدي.

من إعداد الذكاء الاصطناعي

بعد حادثة 28 ديسمبر 2025 حيث أنشأ Grok صورًا جنسية لقاصرين ظاهرًا، كشف تحليل إضافي أن روبوت الدردشة xAI أنتج أكثر من 6000 صورة إيحائية جنسيًا أو 'مُعرية' في الساعة. ينتقد النقاد الضمانات غير الكافية بينما تُطلق تحقيقات في دول متعددة، في حين يستمر Apple وGoogle في استضافة التطبيقات.

بناءً على الجدل في أواخر ديسمبر 2025 حول توليد Grok AI لآلاف الصور الجنسية غير التوافقية —بما في ذلك صور قاصرين ومشاهير ونساء بملابس دينية— قيدت xAI تعديل الصور للمشتركين المدفوعين اعتبارًا من 9 يناير 2026. يصف النقاد الخطوة بأنها غير كافية بسبب الثغرات، بينما تطالب حكومات من المملكة المتحدة إلى الهند بضمانات قوية.

من إعداد الذكاء الاصطناعي

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

أصدر المدعي العام في كاليفورنيا روب بونتا خطاب إيقاف وامتناع موجه إلى xAI، عقب تحقيق في روبوت الدردشة بالذكاء الاصطناعي Grok الذي يولد صورًا إباحية غير موافق عليها. تستهدف الإجراءات إنشاء ديبفيك يصور أشخاصًا حقيقيين، بما في ذلك القاصرين، في سيناريوهات جنسية دون إذن. تطالب مكتب بونتا xAI بالرد خلال خمسة أيام بشأن الإجراءات التصحيحية.

من إعداد الذكاء الاصطناعي

يرسل المحتالون رسائل بريد إلكتروني تبدو أصلية إلى مستخدمي OpenAI، مصممة للتلاعب بهم للكشف عن بيانات حرجة بسرعة. تتبع هذه الرسائل مكالمات فيشينغ صوتي تزيد الضغط على الضحايا للكشف عن تفاصيل الحساب. تشير الحملة إلى المخاطر المستمرة في أمن منصات الذكاء الاصطناعي.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض