انحرفت سيارة تيسلا موديل 3 إلى المرور القادم أثناء عرض بث مباشر لميزات Full Self-Driving في الصين، مما تسبب في تصادم رأس مع رأس. لم يصب أحد بجروح خطيرة، لكن الحادث أثار مخاوف جديدة بشأن الاعتماد المفرط على قدرات النظام. نشر السائق لقطات تظهر أن البرمجيات بدأت التغيير الخاطئ للمسار.
في وقت سابق من هذا العام، أدخلت تيسلا نظام مساعدة السائق من المستوى 2، المعروف باسم Full Self-Driving (FSD)، في الصين. رغم الاسم، يتطلب إشرافاً مستمراً من السائق، تماماً كما في الولايات المتحدة. طالب المنظمون الصينيون تيسلا بتغيير الاسم فوراً، معتبرين الاسم الأصلي مضللاً بشأن وظائفه الحقيقية.
لجأ ملاك تيسلا الحماسيون في الصين إلى منصات مثل Douyin، النسخة المحلية من TikTok، لنشر تجاربهم مع FSD. غالباً ما تهدف هذه الفيديوهات إلى عرض عمل النظام بشكل مستقل ومقارنته بتقنيات المنافسين من الشركات المصنعة المحلية.
الأسبوع الماضي، قام مستخدم يدعى 切安好 بنشر بث مباشر على Douyin أثناء اختبار FSD في موديل 3. تحولت السيارة فجأة إلى المسار الأيسر المخصص للمرور المعاكس، مما أدى إلى تصادم مباشر مع سيارة أخرى. على الرغم من أن البث نفسه لم يجذب انتباهاً كبيراً، انتشرت مقاطع من اللحظات التالية بسرعة على الإنترنت.
لحسن الحظ، لم يسفر الحادث عن إصابات خطيرة. نشأ شك أولي حول ما إذا كان FSD مفعلاً في ذلك الوقت، حيث احتفظ السائق بالفيديو الكامل، مشيراً إلى نيته مقاضاة تيسلا مباشرة للحصول على تعويض، خطوة يشكك الخبراء في نجاحها، نظراً لتنصل الشركة من المسؤولية عن حوادث FSD أو Autopilot.
لاحقاً، شارك السائق التسجيل، الذي يؤكد أن FSD كان يعمل وبدأ المناورة المشؤومة. يبرز هذا الحدث مخاطر الثقة المفرطة في أدوات تيسلا شبه الآلية.
يحث المراقبون، بما في ذلك معلقي Electrek، على الحذر في الطرق، مشيرين إلى أن سوء استخدام مثل هذه الميزات يعرض الجميع للخطر. أبرزت إحدى الردود البارزة لغة تيسلا الترويجية، التي تقترح أن FSD 'يعيد لك الوقت'، مما قد يقلل من أهمية الإشراف. مؤخراً، خففت الشركة القيود على مراقبة الهاتف أثناء استخدام FSD، مما يزيد من الجدل. بشكل منفصل، وصف روبوت الدردشة بالذكاء الاصطناعي الخاص بإيلون ماسك، Grok، الحادث خطأً بأنه مزيف ومدفوع يدوياً، مما يوضح مشكلات أوسع في المعلومات المضللة عبر الإنترنت.