Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.

NHTSA menyelidiki perangkat lunak Full Self-Driving Tesla karena pelanggaran lalu lintas

Gambar dihasilkan oleh AI

Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS telah memulai penyelidikan keenamnya terhadap perangkat lunak Full Self-Driving Tesla setelah laporan pelanggaran lalu lintas berbahaya. Penyelidikan ini memeriksa insiden termasuk melewati lampu merah dan mengemudi di jalur yang salah, yang menyebabkan kecelakaan dan cedera. Hal ini terjadi di tengah dorongan Tesla menuju robotaksi dan pengemudian tanpa pengawasan.

Minggu lalu, pada 7 Oktober 2025, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional (NHTSA) mengumumkan penyelidikan terhadap 2,88 juta kendaraan Tesla yang dilengkapi dengan Full Self-Driving (FSD) atau fitur bantuan pengemudi lainnya. Ini menandai setidaknya penyelidikan keenam seperti itu, yang berfokus pada puluhan keluhan tentang perilaku tidak aman, termasuk kendaraan yang menerobos lampu merah, menyimpang ke jalur berlawanan, melintasi garis kuning ganda, dan membuat belokan yang salah. Satu insiden yang dilaporkan melibatkan Tesla yang mendekati persimpangan dengan sinyal merah, melanjutkan melewatinya, dan menabrak kendaraan lain.

Sumber melaporkan detail yang bervariasi tentang kecelakaan: CNN menyebutkan tiga kecelakaan yang menyebabkan lima cedera, sementara FOX 4 News menyebutkan setidaknya enam kecelakaan dengan empat cedera. Kantor Investigasi Cacat NHTSA mencatat 18 keluhan di mana perangkat lunak gagal berhenti di lampu merah, mengenali sinyal, atau memberikan peringatan untuk manuver seperti perubahan jalur mendadak ke lalu lintas yang datang. Badan tersebut akan menilai apakah Tesla memberikan kesempatan yang memadai bagi pengemudi untuk campur tangan.

Penyelidikan yang ada terhadap FSD dan Autopilot, termasuk kecelakaan fatal, masih berlangsung meskipun bertahun-tahun diawasi. Bryant Walker Smith, profesor hukum dan teknik di Stanford, menggambarkan proses tersebut sebagai 'regulasi whack-a-mole', mencatat bahwa itu memakan waktu lama dan selaras buruk dengan kemajuan teknologi yang cepat. Di bawah rezim sertifikasi mandiri AS, produsen mobil menjanjikan kepatuhan terhadap standar, tetapi NHTSA kekurangan aturan khusus untuk sistem canggih seperti FSD, membatasi persetujuan pra-pasar.

Tesla mengklasifikasikan FSD sebagai sebagian otonom, memerlukan pengawasan pengemudi aktif, seperti yang dinyatakan di situs webnya: 'ketika diaktifkan, kendaraan Anda akan mengemudikan Anda hampir ke mana saja dengan pengawasan aktif Anda, memerlukan intervensi minimal.' Perusahaan tersebut meluncurkan pilot robotaksi di Austin, Texas, lebih awal pada 2025, awalnya dengan karyawan di kursi penumpang, kemudian dipindahkan ke kursi pengemudi sesuai aturan lokal. CEO Elon Musk membayangkan operasi sepenuhnya tanpa pengemudi dan 'Cybercab' tanpa setir atau pedal. Tesla bersikeras bahwa teknologinya lebih aman daripada pengemudi manusia tetapi belum menyediakan data pendukung. Smith memperingatkan risiko dari ketidakperhatian pengemudi: 'Ada kekhawatiran besar bahwa manusia... akan kehilangan perhatian jika mereka tidak melakukan apa-apa selain menonton.' NHTSA bisa mendorong standar yang lebih ketat, tetapi perubahan hukum dari Kongres diperlukan untuk otoritas pra-persetujuan, tidak mungkin segera karena pengaruh industri otomotif dan toleransi publik terhadap kematian di jalan.

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami kebijakan privasi untuk informasi lebih lanjut.
Tolak