中国でのFull Self-Driving機能のライブストリームデモンストレーション中、テスラModel 3が対向車線に逸脱し、正面衝突を引き起こした。重傷者は出なかったが、この事件はシステムの能力への過度な依存に対する新たな懸念を引き起こした。運転手はソフトウェアが誤った車線変更を開始したことを示す映像を公開した。
今年初頭、テスラは中国でレベル2のドライバーアシストシステムであるFull Self-Driving(FSD)を導入した。名称にもかかわらず、米国と同様に運転手の常時監視を必要とする。中国当局はすぐにテスラに名称変更を命じ、元のラベルが実際の機能について誤解を招くと判断した。
中国のテスラ熱心なオーナーたちは、Douyin(TikTokのローカル版)などのプラットフォームでFSDの体験をライブ配信している。これらの動画はしばしばシステムの独立動作を披露し、国産自動車メーカーの競合技術と比較する。
先週、切安好というユーザーがDouyinでModel 3のFSDをテスト中にライブ配信を行った。車両が突然対向車線用の左車線に移動し、他車と正面衝突した。配信自体はあまり注目されなかったが、事故後のクリップがオンラインで急速に広がった。
幸い、事故で重傷者は出なかった。当初、FSDが作動中だったかどうかの懐疑が浮上し、運転手が完全な動画を公開せず、テスラに直接補償を求める意向を述べたためだ。専門家はこの試みが成功するとは疑わしく、会社の免責事項でFSDやAutopilotの事故に対する責任を負わないと明記されている。
その後、運転手が録画を公開し、FSDが稼働中で運命的な操作を開始したことを確認した。この出来事はテスラの半自律ツールへの過度な信頼のリスクを強調する。
Electrekの解説者を含む観察者たちは、道路での注意を促し、こうした機能の誤用が全員を危険にさらすと指摘。一つの注目すべき反応は、テスラのプロモーション語句「FSDが時間を返してくれる」が監視の必要性を軽視している可能性を指摘。最近、同社はFSD使用中の電話監視制限を緩和し、議論を呼んでいる。別途、イーロン・マスクのAIチャットボットGrokは事故を捏造で手動運転と誤って記述し、オンライン誤情報の広範な問題を示した。