NHTSA、テスラのフルセルフドライビングシステムに関する調査を開始

国立道路交通安全局は、フルセルフドライビングシステムを搭載した約290万台のテスラ車両に対する調査を開始した。この調査は、交通違反と衝突を含む58件のインシデントの報告を受けてのものであり、規制当局はソフトウェアの更新がこれらの安全懸念に対処したかどうかを検証している。

国立道路交通安全局(NHTSA)は、会社のフルセルフドライビング(FSD)ソフトウェアを搭載した約290万台のテスラ車両に対する調査を発表した。この調査は、最近の提出書類で詳細が記載されており、赤信号無視、道路の逆走、違法な車線変更、譲らないなどの違反を記録した58件のインシデント報告に基づいている。一部のインシデントでは、信号を無視して他の車両と衝突し、運転手や歩行者を危険にさらす事故が発生し、負傷者が出た。

この調査は、2016年以降のFSD搭載テスラモデルを対象とし、システムの予測不能な行動のパターンを強調している。テスラのCEOであるイーロン・マスク氏は、FSDを将来のロボットタクシーサービスのための重要な技術として推進しているが、ソフトウェアの名前にもかかわらず、人間の監督を必要とする。これはテスラにとって初の規制当局の精査ではない;以前の調査は関連するオートパイロット機能と致命的な衝突に焦点を当てていたが、今回はFSD特有の交通違反を対象としている。

NHTSAは、無線によるソフトウェア更新がこれらの問題を解決したかどうか、またはテスラのAIアプローチに深い問題が残っているかどうかを評価している。同社はまだ調査の詳細についてコメントしていないが、過去の対応では、現実世界のデータ収集を通じた継続的な改善を強調していた。安全擁護者やアナリストは、テスラのベータテスト方法に懸念を表明しており、これは顧客車両に依存し、公衆をリスクにさらす可能性がある。

この進展は、自動運転車業界全体の広範な課題の中で起こっており、WaymoやCruiseなどの企業も監督を受けている。テスラにとっては、潜在的なリコールや修正がロボットタクシンの計画を遅らせ、自律走行技術に関連する収益予測に影響を及ぼす可能性がある。この調査は、継続的な人間の介入なしに複雑な環境に対応するこうしたシステムの準備状況に関する議論を強調している。

このウェブサイトはクッキーを使用しています

サイトを改善するための分析にクッキーを使用しています。当社の プライバシーポリシー をお読みください 詳細については。
拒否