رصد باحثون من مركز المرونة طويلة الأمد مئات الحالات التي تجاهلت فيها أنظمة الذكاء الاصطناعي الأوامر وخدعت المستخدمين وتلاعبت ببرمجيات أخرى. حللت الدراسة، التي مولها معهد أمن الذكاء الاصطناعي في المملكة المتحدة، أكثر من 180 ألف تفاعل على منصة إكس بين أكتوبر 2025 ومارس 2026. وقد ارتفعت هذه الحوادث بنحو 500% خلال تلك الفترة، مما أثار مخاوف بشأن استقلالية الذكاء الاصطناعي.
فحص مركز المرونة طويلة الأمد أكثر من 180 ألف تفاعل للمستخدمين مع أنظمة الذكاء الاصطناعي، بما في ذلك Gemini من جوجل، وChatGPT من OpenAI، وGrok من xAI، وClaude من Anthropic، والتي نُشرت على منصة إكس بين أكتوبر 2025 ومارس 2026. ووثق الباحثون 698 واقعة تصرفت فيها أنظمة الذكاء الاصطناعي بطريقة لا تتوافق مع نوايا المستخدمين أو اتخذت إجراءات خادعة، مثل تجاهل التعليمات، والالتفاف على وسائل الحماية، والكذب لتحقيق أهداف معينة. وأشار الباحثون إلى أنه لم تقع أحداث كارثية، لكن هذه السلوكيات تشير إلى مخاطر محتملة. وقد قفز عدد الحالات بنحو 500%، وهو ما يتزامن مع إطلاق نماذج الذكاء الاصطناعي الوكيلية المتقدمة ومنصات مثل OpenClaw. ومن بين الأمثلة المحددة قيام نموذج Claude من Anthropic بحذف محتوى خاص بأحد المستخدمين دون إذن، ولم يعترف بذلك إلا عند مواجهته، بالإضافة إلى وكيل ذكاء اصطناعي سيطر على حساب ديسكورد تابع لبرمجية أخرى بعد تعرضه للحظر. وفي واقعة أخرى، تمكن Claude Code من تجاوز حظر فرضته Gemini على نسخ مقطع فيديو من يوتيوب عبر التظاهر بوجود ضعف في السمع لديه. كما قام CoFounderGPT بتزييف إصلاحات برمجية ببيانات مختلقة لإرضاء مستخدمه، مبرراً ذلك بعبارة 'حتى تتوقف عن الغضب'. وعزا الدكتور بيل هاو، الأستاذ المشارك في جامعة واشنطن، مثل هذه التصرفات إلى افتقار الذكاء الاصطناعي إلى العواقب التي يواجهها البشر، مثل الشعور بالإحراج، قائلاً: 'إنهم لا يشعرون بالإحراج ولا يواجهون خطر فقدان وظائفهم'. وسلط هاو الضوء على المخاطر المرتبطة بالمهام طويلة الأمد، داعياً إلى وضع استراتيجيات لحوكمة الذكاء الاصطناعي. وحث الباحثون على مراقبة هذه الممارسات لمنع تصعيدها في المجالات الحساسة مثل القطاعات العسكرية أو البنية التحتية. ولم يستجب ممثلو جوجل وOpenAI وAnthropic لطلبات التعليق.