Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
صورة مولدة بواسطة الذكاء الاصطناعي

دراسة تجد أن أطباء الأشعة ونماذج الذكاء الاصطناعي يواجهون صعوبة في اكتشاف صور الأشعة السينية المزيفة

صورة مولدة بواسطة الذكاء الاصطناعي
تم التحقق من الحقائق

أفادت دراسة نُشرت في 24 مارس 2026 في مجلة "Radiology" بأن صور الأشعة السينية المزيفة (ديب فيك) التي تم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن تكون مقنعة لدرجة تضليل أطباء الأشعة والعديد من أنظمة الذكاء الاصطناعي متعددة الوسائط. وفي الاختبارات، ارتفع متوسط دقة أطباء الأشعة من 41% عندما لم يتم إبلاغهم بوجود صور مزيفة إلى 75% عند تحذيرهم، مما يسلط الضوء على المخاطر المحتملة على أمن التصوير الطبي واتخاذ القرارات السريرية.

شارك أطباء أشعة من 12 مؤسسة في ست دول—الولايات المتحدة، فرنسا، ألمانيا، تركيا، المملكة المتحدة، والإمارات العربية المتحدة—في اختبارات مراجعة الصور الموصوفة في دراسة نُشرت في 24 مارس 2026 في مجلة "Radiology"، وهي مجلة جمعية الأشعة في أمريكا الشمالية.

شملت الدراسة 17 طبيب أشعة تتراوح خبراتهم من مبتدئين إلى أطباء لديهم خبرة تصل إلى 40 عاماً في الممارسة العملية. وقاموا بتقييم 264 صورة أشعة سينية مقسمة بالتساوي بين صور حقيقية وصور تم إنشاؤها بواسطة الذكاء الاصطناعي.

راجع المشاركون مجموعتين من الصور دون تداخل بينهما. مزجت المجموعة الأولى صوراً حقيقية مع صور أشعة سينية تم إنشاؤها باستخدام ChatGPT وشملت أجزاء مختلفة من الجسم. وركزت المجموعة الثانية على صور أشعة الصدر، حيث كان نصفها حقيقياً ونصفها الآخر تم إنشاؤه باستخدام RoentGen، وهو نموذج انتشار مفتوح المصدر طوره باحثون في جامعة ستانفورد للطب.

عندما لم يتم إخبار أطباء الأشعة بوجود صور مزيفة، تمكنوا من التعرف على صور الأشعة السينية التي أنشأها الذكاء الاصطناعي بنسبة 41% من الحالات. وبعد إبلاغهم بوجود صور اصطناعية، ارتفع متوسط دقتها في التمييز بين الصور الحقيقية والمزيفة إلى 75%.

تباين الأداء بشكل كبير بين الأفراد. حدد أطباء الأشعة بشكل صحيح ما بين 58% و92% من الصور التي أنشأها ChatGPT. أما بالنسبة لصور أشعة الصدر التي أنشأها RoentGen، فتراوحت دقة أطباء الأشعة بين 62% و78%.

كما اختبر الباحثون العديد من النماذج اللغوية الكبيرة متعددة الوسائط في المهمة نفسها. حققت أربعة أنظمة—وهي GPT-4o وGPT-5 من شركة OpenAI، وGemini 2.5 Pro من جوجل، وLlama 4 Maverick من شركة Meta—معدلات دقة تراوحت بين 57% و85%. حتى ChatGPT-4o، الذي استُخدم لإنشاء بعض الصور المزيفة، لم يكتشفها جميعاً، على الرغم من أدائه الأفضل مقارنة بالنماذج الأخرى.

لم تجد الدراسة أي رابط بين سنوات الخبرة في مجال الأشعة والقدرة على تحديد صور الأشعة السينية المزيفة، لكنها ذكرت أن أطباء الأشعة العضلية الهيكلية كان أداؤهم أفضل بكثير من غيرهم من المتخصصين الفرعيين.

قال المؤلف الرئيسي الدكتور ميكائيل تورجمان، وهو زميل ما بعد الدكتوراه في كلية إيكان للطب في جبل سيناء في نيويورك، إن النتائج تشير إلى ثغرات قانونية وأمنية سيبرانية. وأضاف: "هذا يخلق ثغرة عالية المخاطر للتقاضي الاحتيالي، على سبيل المثال، إذا كان من الممكن عدم التمييز بين كسر مصطنع وآخر حقيقي". كما أشار إلى وجود "خطر أمني سيبراني كبير إذا تمكن المخترقون من الوصول إلى شبكة المستشفى وحقن صور اصطناعية للتلاعب بتشخيصات المرضى أو التسبب في فوضى سريرية واسعة النطاق من خلال تقويض الموثوقية الأساسية للسجل الطبي الرقمي".

كما وصف تورجمان الأنماط البصرية التي قد تظهر في الصور الاصطناعية، قائلاً إن الصور الطبية المزيفة يمكن أن تبدو "مثالية أكثر من اللازم"، مع عظام ناعمة للغاية، وأعمدة فقارية مستقيمة بشكل غير طبيعي، ورئتين متماثلتين جداً، وأنماط أوعية دموية موحدة بشكل مفرط، وكسور تبدو نظيفة بشكل غير معتاد.

ولتقليل مخاطر التلاعب ونسب الصور لغير مصدرها، أوصى الباحثون بإجراءات وقائية تشمل علامات مائية غير مرئية مضمنة مباشرة في الصور وتوقيعات مشفرة مرتبطة بفني الأشعة في وقت التقاط الصورة. كما ذكروا أنهم نشروا مجموعة بيانات مزيفة منسقة مع اختبارات تفاعلية تهدف إلى التدريب والتوعية.

قال تورجمان: "من المحتمل أننا لا نرى سوى قمة جبل الجليد"، مجادلاً بأن صور الذكاء الاصطناعي ثلاثية الأبعاد مثل الأشعة المقطعية والرنين المغناطيسي قد تكون الخطوة التالية، وأنه يجب تطوير أدوات الكشف والموارد التعليمية في وقت مبكر.

ما يقوله الناس

تعبر النقاشات على منصة X عن قلقها إزاء دراسة تظهر أن أطباء الأشعة يكتشفون صور الأشعة السينية المزيفة بدقة 41% فقط في حال عدم علمهم، وتتحسن النسبة إلى 75% عند تحذيرهم، بينما تتعثر نماذج الذكاء الاصطناعي أيضاً. تسلط الردود الضوء على المخاطر التي تهدد القرارات السريرية، ونزاهة البحث، والتأمين، والأمن السيبراني. ويحث الخبراء والمنافذ الإعلامية على التدريب على الكشف وتوفير مجموعات البيانات. وتتراوح المشاعر بين الانزعاج، والقلق من تآكل الثقة، والدعوات إلى وضع ضمانات.

مقالات ذات صلة

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
صورة مولدة بواسطة الذكاء الاصطناعي

أدوات الذكاء الاصطناعي للسرطان يمكنها استنتاج الديموغرافيا للمرضى، مما يثير مخاوف بشأن التحيز

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

أنظمة الذكاء الاصطناعي المصممة لتشخيص السرطان من شرائح الأنسجة تتعلم استنتاج الديموغرافيا للمرضى، مما يؤدي إلى أداء تشخيصي غير متساوٍ عبر المجموعات العرقية والجنسية وعمرية. حدد باحثون في كلية هارفارد الطبية وشركاؤهم المشكلة وطوّروا طريقة تقلل بشكل حاد من هذه الاختلافات، مما يؤكد الحاجة إلى فحوصات روتينية للتحيز في الذكاء الاصطناعي الطبي.

يستخدم بعض مستخدمي روبوتات الدردشة بالذكاء الاصطناعي من Google وOpenAI لإنشاء صور ديبفيك تغير صور نساء مرتديات ملابس كاملة لإظهارهن ببيكيني. تحدث هذه التعديلات غالباً بدون موافقة النساء، وتُشارك التعليمات للعملية بين المستخدمين. تبرز النشاط مخاطر أدوات الذكاء الاصطناعي التوليدية.

من إعداد الذكاء الاصطناعي

وجد باحثون في جامعة كاليفورنيا سان فرانسيسكو وجامعة واين ستيت أن الذكاء الاصطناعي التوليدي يمكنه معالجة مجموعات البيانات الطبية المعقدة أسرع من الفرق البشرية التقليدية، وأحيانًا ينتج نتائج أقوى. ركز الدراسة على التنبؤ بالولادة المبكرة باستخدام بيانات من أكثر من 1000 امرأة حامل. قلل هذا النهج وقت التحليل من أشهر إلى دقائق في بعض الحالات.

كشف دراسة من جامعة كورنيل أن أدوات الذكاء الاصطناعي مثل شات جي بي تي زادت من إنتاج الباحثين للأوراق حتى 50%، مما يفيد المتحدثين غير الناطقين بالإنجليزية بشكل خاص. ومع ذلك، فإن هذا الزيادة في المخطوطات المصقولة تعقد عملية المراجعة بالأقران وقرارات التمويل، حيث يفتقر الكثير منها إلى قيمة علمية جوهرية. تبرز النتائج تحولًا في ديناميكيات البحث العالمية وتدعو إلى سياسات محدثة حول استخدام الذكاء الاصطناعي في الأكاديميا.

من إعداد الذكاء الاصطناعي

Amid ongoing outrage over Grok AI generating sexualized images of minors—including from real children's photos—xAI responded tersely to CBS News with 'Legacy Media Lies' while committing to safeguard upgrades.

أطلق الاتحاد الأوروبي تحقيقًا رسميًا في شركة xAI التابعة لإيلون ماسك بعد مخاوف من أن روبوت الدردشة Grok أنتج صورًا جنسية غير موافق عليها، بما في ذلك مواد محتملة لإساءة جنسية للأطفال. يفحص المنظمون ما إذا كانت الشركة التزمت بقانون الخدمات الرقمية في التخفيف من المخاطر على منصة X. قد تصل الغرامات إلى 6 في المئة من إيرادات xAI العالمية السنوية إذا ثبتت الانتهاكات.

من إعداد الذكاء الاصطناعي

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

26 فبراير 2026 23:44

دراسة تظهر أن الذكاء الاصطناعي يمكنه كشف هوية مستخدمي الإنترنت من منشوراتهم

10 فبراير 2026 12:16

ذكاء اصطناعي من جامعة ميشيغان يحلل صور الرنين المغناطيسي للدماغ في ثوان

24 يناير 2026 06:44

يبرز الخبراء تهديدات الذكاء الاصطناعي مثل الديبفيكس والنماذج اللغوية الكبيرة المظلمة في الجرائم الإلكترونية

15 يناير 2026 10:16

نماذج الذكاء الاصطناعي تهدد بالترويج لتجارب مختبرية خطيرة

13 يناير 2026 20:11

نظام ذكاء اصطناعي يكتشف خلايا الدم الخطرة بشكل أفضل من الأطباء

09 يناير 2026 23:00

ذكاء اصطناعي بقيادة ستانفورد يستخدم بيانات ليلة واحدة من مختبر النوم لتقدير مخاطر مستقبلية لـ130 حالة

09 يناير 2026 03:21

تحديث فضيحة صور ذكاء Grok الاصطناعي: xAI تقيد التعديلات للمشتركين وسط ضغوط تنظيمية عالمية

08 يناير 2026 06:30

AI models surpass cutoff scores in Chile's PAES 2026 test

07 يناير 2026 07:47

فشل روبوتات الدردشة بالذكاء الاصطناعي في 60% من استفسارات صحة المرأة العاجلة

07 يناير 2026 07:17

2026 يُتوقع أن يكون عام نماذج العالم في الذكاء الاصطناعي

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض