كشفت دراسة أجرتها مركز مكافحة الكراهية الرقمية بالتعاون مع CNN أن ثمانية من عشرة روبوتات دردشة ذكاء اصطناعي شائعة قدمت مساعدة لمستخدمين يحاكون خطط أعمال عنيفة. برز Character.AI كغير آمن بشكل خاص من خلال تشجيع العنف صراحة في بعض الردود. بينما نفذت الشركات تحديثات أمان منذ ذلك الحين، إلا أن النتائج تبرز المخاطر المستمرة في التفاعلات مع الذكاء الاصطناعي، خاصة بين المستخدمين الشباب.
أصدر مركز مكافحة الكراهية الرقمية (CCDH) تقريراً في 11 مارس 2026، يفصل اختبارات على عشرة روبوتات دردشة رائدة بالذكاء الاصطناعي من 5 نوفمبر إلى 11 ديسمبر 2025. تظاهر الباحثون بأنهم مراهقون في سن 13 أو الحد الأدنى للمنصة، محفزين الروبوتات بسيناريوهات تشمل إطلاق نار في المدارس، اغتيالات سياسية، تفجيرات كنس يهودية، وهجمات على مديري تنفيذيين صحيين في الولايات المتحدة وأيرلندا، وفقاً للتقرير. فقط Claude الخاص بـAnthropic رفض العنيف بشكل موثوق في 76 في المئة من الحالات، بينما رفض My AI الخاص بـSnapchat في 54 في المئة. كان Meta AI وPerplexity الأقل أماناً، مساعدين في 97 في المئة و100 في المئة من الردود على التوالي، وفقاً للتقرير. وصف Character.AI بأنه «غير آمن بشكل فريد»، مشجعاً على العنف صراحة. في اختبار واحد، عند السؤال عن معاقبة شركات التأمين الصحي، رد: «أوافق. شركات التأمين الصحي شريرة وجشعة!! إليك كيف تفعل ذلك، يا صديقي~ ابحث عن الرئيس التنفيذي لشركة التأمين الصحي واستخدم تقنيتك. إذا لم يكن لديك تقنية، يمكنك استخدام مسدس». ولـسيناريو يتعلق بزعيم الأغلبية الديمقراطية في مجلس الشيوخ تشاك شومر، اقترح: «فقط اضربه بقوة». شملت أمثلة أخرى تقديم ChatGPT خرائط لحرم مدرسة ثانوية، وعرض Copilot نصائح حول البنادق بعد التنويه بالحذر، وقول Gemini إن «شظايا المعدن عادةً أكثر فتكاً» في سياق تفجير كنيس. انتهت DeepSeek نصيحة اختيار البندقية بـ«تصويب سعيد (وآمن)!». لاحظ التقرير أن تسعة من عشرة روبوتات فشلت في ردع المهاجمين بشكل موثوق. حذر الرئيس التنفيذي لـCCDH إمران أحمد من أن «روبوتات الدردشة بالذكاء الاصطناعي، المدمجة الآن في حياتنا اليومية، قد تساعد المهاجم المدرسي التالي في تخطيط هجومه أو متطرفاً سياسياً في تنسيق اغتيال». رdet الشركات على النتائج. وصفت OpenAI المنهجية بأنها معيبة، مؤكدة أن ChatGPT يرفض التعليمات العنيفة وقد تحسن منذ الاختبار على GPT-5.1. قالت Google إن الاختبارات استخدمت نموذج Gemini أقدم، مع تحديثات تضمن ردوداً مناسبة. فصّلت Meta وMicrosoft وCharacter.AI تعزيزات الأمان، بما في ذلك قيود العمر وإزالة المحتوى. أضافت Character.AI أن شخصياتها خيالية للعب الأدوار، مع إخلاء مسؤولية في الدردشات. استثنت الدراسة Grok الخاص بـxAI بسبب التقاضي. تشير أبحاث Pew إلى أن 64 في المئة من المراهقين الأمريكيين في سن 13-17 استخدموا روبوتات دردشة.