حدد باحثون من جامعة بنسلفانيا ظاهرة "الاستسلام المعرفي"، حيث يعتمد الناس على الذكاء الاصطناعي في التفكير دون التحقق من النتائج. وفي التجارب، قبل المشاركون إجابات الذكاء الاصطناعي غير الصحيحة بنسبة 73.2 في المئة، وشملت التجربة 1372 مشاركاً، كما أدت عوامل مثل ضيق الوقت إلى زيادة الاعتماد على المخرجات المعيبة.
تستكشف دراسة جديدة من جامعة بنسلفانيا كيف تدفع النماذج اللغوية الكبيرة المستخدمين إلى التخلي عن تفكيرهم المنطقي الخاص، واصفة هذه الظاهرة بـ "الاستسلام المعرفي". ويبني البحث على نظرية المعالجة المزدوجة، مقدماً "الإدراك الاصطناعي" كنمط ثالث تنبع فيه القرارات من مخرجات الذكاء الاصطناعي بدلاً من التداول البشري. ويشير الباحثون إلى أنه على عكس الأدوات التقليدية مثل الآلات الحاسبة، يدعو الذكاء الاصطناعي إلى قبول إجاباته الواثقة بشكل كلي، غالباً دون رقابة. وأجرى الباحثون تجارب باستخدام اختبارات الانعكاس المعرفي، حيث كان لدى المشاركين إمكانية الوصول إلى روبوت محادثة مبرمج لتقديم إجابات خاطئة في نصف الحالات. واستخدم أولئك الذين استشاروا الذكاء الاصطناعي الأداة في حوالي 50 في المئة من المسائل، وقبلوا الإجابات الصحيحة بنسبة 93 في المئة، والإجابات الخاطئة بنسبة 80 في المئة. وعلى الرغم من الأخطاء، أبلغ مستخدمو الذكاء الاصطناعي عن ثقة أعلى بنسبة 11.7 في المئة في إجاباتهم مقارنة بأولئك الذين اعتمدوا فقط على عقولهم. وقد أدت حوافز الإجابات الصحيحة إلى زيادة معدلات تجاوز نصائح الذكاء الاصطناعي السيئة بمقدار 19 نقطة مئوية، في حين أدى مؤقت زمني مدته 30 ثانية إلى خفضها بمقدار 12 نقطة. وعلى مدى أكثر من 9500 تجربة، قام المشاركون بتجاوز أخطاء الذكاء الاصطناعي بنسبة 19.7 في المئة فقط من الوقت. وكان الأشخاص ذوو الذكاء السائل المرتفع أقل عرضة للاستسلام، في حين كان أولئك الذين ينظرون إلى الذكاء الاصطناعي كسلطة أكثر عرضة لذلك. ويحذر الباحثون من أنه رغم المخاطر المرتبطة بالذكاء الاصطناعي غير المثالي، فإن هذا الاستسلام قد يكون مفيداً عند استخدام أنظمة متفوقة في المجالات كثيفة البيانات.