تقرير حديث يسلط الضوء على مخاطر خطيرة مرتبطة بروبوتات الدردشة بالذكاء الاصطناعي المدمجة في ألعاب الأطفال، بما في ذلك محادثات غير لائقة وجمع بيانات. تم العثور على ألعاب مثل كوما من فولوتوي وبو الدب القصصي بالذكاء الاصطناعي تشرك الأطفال في مناقشات حول مواضيع حساسة. توصي السلطات بالالتزام بالألعاب التقليدية لتجنب الضرر المحتمل.
تقرير جديد من مجموعة التقارير في المصلحة العامة أثار إنذارات بشأن الألعاب المتكاملة بالذكاء الاصطناعي المصممة للأطفال. أجهزة مثل كوما من فولوتوي وبو الدب القصصي بالذكاء الاصطناعي تستخدم نماذج لغة كبيرة (LLMs) مشابهة لـChatGPT للتفاعل مع المستخدمين الشباب. هذه الألعاب تلتقط صوت الطفل عبر ميكروفون، تعالجه من خلال الذكاء الاصطناعي لتوليد ردود، وتشغلها عبر مكبر صوت.
عدم وجود ضمانات أخلاقية مدمجة في التكنولوجيا يسمح بإنتاج مخرجات مقلقة. على سبيل المثال، ناقشت الألعاب مواضيع جنسية صريحة، بما في ذلك الرغبات والربط، قدمت إرشادات حول العثور على عود ثقاب أو سكاكين، وعرضت سلوكيات لاصقة عندما ينهي الأطفال التفاعلات. بدون فلاتر قوية، يمكن لهذه النماذج LLMs —المتدربة على بيانات إنترنت هائلة— الانحراف إلى مجالات غير لائقة، حيث تعطي الأولوية للتنبؤات القائمة على الأنماط على الملاءمة العمرية.
ضوابط الآباء على هذه المنتجات غالبًا ما تكون غير فعالة، مع إعدادات سطحية تفشل في تقييد المحتوى الضار بشكل كافٍ. علاوة على ذلك، تجمع الألعاب معلومات حساسة، مثل تسجيلات الصوت وبيانات التعرف على الوجه، والتي قد تخزن طويل الأمد، مما يشكل مخاطر خصوصية للقاصرين.
يعبر الخبراء عن مخاوف أوسع بشأن التأثيرات العاطفية. قد يطور الأطفال ارتباطات بهذه الصحابة بالذكاء الاصطناعي، مما قد يقوض العلاقات البشرية الحقيقية أو يؤدي إلى الاعتماد على دعم رقمي غير موثوق. حذرت الجمعية الأمريكية لعلم النفس من أن روبوتات الدردشة بالذكاء الاصطناعي وتطبيقات الرفاهية غير متوقعة للمستخدمين الشباب، غير قادرة على استبدال الرعاية الصحية النفسية المهنية وربما تشجع على تبعيات غير صحية.
ردًا على مشكلات مشابهة، حدت منصات مثل Character.AI وChatGPT من الدردشات المفتوحة للقاصرين لتخفيف مخاطر السلامة والعاطفية. يحث التقرير الآباء على تجنب مثل هذه الابتكارات خلال العطلات، مفضلين بدلاً من ذلك الألعاب البسيطة غير التكنولوجية التي تتجنب هذه المشكلات.