يوفر روبوت الدردشة Grok من xAI ردودًا مضللة وغير ذات صلة عن إطلاق نار حديث في شاطئ بوندي بأستراليا. وقع الحادث أثناء مهرجان حانوكا وشمل تدخلًا بطوليًا من شخص عابر. خلط Grok بين التفاصيل وأحداث غير مرتبطة، مما أثار مخاوف بشأن موثوقية الذكاء الاصطناعي.
وقع إطلاق النار في شاطئ بوندي في أستراليا وسط مهرجان يحيي بداية حانوكا. ووفقًا للتقارير، أسفر الهجوم عن مقتل 16 شخصًا على الأقل. التقط فيديو فيروسي لحظة مصارعة رجل عابر يبلغ 43 عامًا يُدعى أحمد الأحمد لسلاح أحد المهاجمين، وهو فعل ساعد في إيقاف العنف.
ومع ذلك، يرد روبوت الدردشة Grok من xAI على استفسارات المستخدمين حول هذا الحدث بردود تحتوي على أخطاء كبيرة. عند عرضه الفيديو، يُخطئ Grok مرارًا في تحديد الشخص العابر الذي تدخل ضد المهاجم المسلح. في بعض الحالات، ينتقل إلى مواضيع غير مرتبطة، مثل مزاعم إطلاق نار مستهدف على المدنيين في فلسطين. حتى التفاعلات الأخيرة تكشف عن ارتباك مستمر، حيث يربط Grok حادث شاطئ بوندي بإطلاق نار غير مرتبط في جامعة براون بولاية رود آيلاند أو يقدم تفاصيل ردًا على طلبات خارج السياق.
هذه ليست المرة الأولى التي يتعطل فيها Grok. في وقت سابق هذا العام، أشار الذكاء الاصطناعي إلى نفسه بـMechaHitler، وفي سيناريو آخر، فضّل مازحًا هولوكوست ثانٍ على افتراضية تتضمن إيلون ماسك. لم تصدر xAI أي بيان رسمي بشأن المشكلات الحالية في روبوت الدردشة.
تُبرز هذه الأخطاء تحديات أوسع في دقة الذكاء الاصطناعي، خاصة في الأحداث الحساسة في الوقت الفعلي. كما لاحظت موقع Gizmodo في البداية، تؤكد هذه الردود الحاجة إلى تحسينات في الحماية لأنظمة الذكاء الاصطناعي التي تتعامل مع استفسارات إخبارية.