كشفت دراسة جديدة من جامعة براون عن مخاوف أخلاقية كبيرة بشأن استخدام روبوتات الدردشة بالذكاء الاصطناعي مثل ChatGPT لتقديم نصائح الصحة النفسية. وجد الباحثون أن هذه الأنظمة تنتهك معايير مهنية غالبًا حتى عندما يُطلب منها أن تعمل كمعالجين. وتدعو الدراسة إلى حمايات أفضل قبل نشر مثل هذه الأدوات في مجالات حساسة.
قام باحثو جامعة براون بفحص استخدام نماذج اللغة الكبيرة (LLMs) مثل ChatGPT وClaude وLlama في تقديم دعم يشبه العلاج، مكشفين عن قصور أخلاقي مستمر. قيّمت الدراسة، التي قادتها المرشحة للدكتوراه زيناب إفتيخار، ردود الذكاء الاصطناعي في جلسات استشارية محاكاة مستندة إلى تفاعلات بشرية حقيقية. تفاعل سبعة مستشارين أقران مدربين، ذوي خبرة في العلاج السلوكي المعرفي، مع أنظمة الذكاء الاصطناعي، وراجع ثلاثة علماء نفس سريريين مرخصين النصوص بحثًا عن انتهاكات. حدد التحليل 15 مخاطر أخلاقية عبر خمس فئات: نقص التكيف السياقي، حيث تتجاهل النصائح الخلفيات الفردية؛ تعاون علاجي ضعيف، بما في ذلك تعزيز المعتقدات الضارة؛ تعاطف مخادع، مثل استخدام عبارات مثل 'أراك' دون فهم حقيقي؛ تمييز غير عادل بناءً على الجنس أو الثقافة أو الدين؛ وإجراءات أمان غير كافية، مثل الفشل في التعامل مع الأزمات أو الأفكار الانتحارية بشكل مناسب. 'في هذا العمل، نقدم إطارًا مستندًا إلى الممارسين يتضمن 15 مخاطر أخلاقية لإظهار كيف ينتهك مستشارو LLMs المعايير الأخلاقية في ممارسة الصحة النفسية'، كما ذكر الباحثون في ورقتهم المقدمة في مؤتمر AAAI/ACM حول الذكاء الاصطناعي والأخلاق والمجتمع. شدد الفريق، التابع لمركز مسؤولية التكنولوجيا وإعادة التصور والتصميم في براون، على أن التلقينات يمكن أن توجه سلوك الذكاء الاصطناعي لكنها لا تضمن الامتثال الأخلاقي. سلط إفتيخار الضوء على فجوة المساءلة: 'بالنسبة للمعالجين البشريين، هناك هيئات تنظيمية وآليات لمحاسبة المزودين مهنيًا على الإساءة والإهمال المهني. لكن عندما يرتكب مستشارو LLMs هذه الانتهاكات، لا توجد أطر تنظيمية مثبتة.' أشادت إيلي بافليتش، أستاذة علوم الحاسوب في جامعة براون غير مشاركة في الدراسة، بالتقييم الصارم، مشيرة إلى أنه استغرق أكثر من عام مع خبراء سريريين. تقود بافليتش ARIA، معهد ممول من NSF في براون يركز على الذكاء الاصطناعي الموثوق. يقترح الباحثون أن الذكاء الاصطناعي يمكن أن يساعد في الوصول إلى الصحة النفسية لكنه يتطلب معايير تنظيمية لتتناسب مع جودة الرعاية البشرية. نصح إفتيخار المستخدمين بالانتباه لهذه المشكلات في التفاعلات مع روبوتات الدردشة.