En Tesla Model 3 svängde in i mötande trafik under en livestream-demonstration av dess Full Self-Driving-funktioner i Kina, vilket orsakat en frontalkollision. Ingen skadades allvarligt, men händelsen har väckt nya farhågor om överdriven tillit till systemets förmågor. Föraren släppte bilder som visar att mjukvaran initierade det felaktiga filbytet.
Tidigare i år introducerade Tesla sitt nivå 2 förarassistanssystem, känt som Full Self-Driving (FSD), i Kina. Trots namnet kräver det konstant tillsyn från föraren, precis som i USA. Kinesiska regulatorer krävde snabbt att Tesla bytte namn, eftersom det ursprungliga namnet ansågs vilseledande om dess faktiska funktioner.
Entusiastiska Tesla-ägare i Kina har tagit till plattformar som Douyin, den lokala versionen av TikTok, för att sända sina upplevelser med FSD. Dessa videor syftar ofta till att visa systemets oberoende drift och jämföra det med rivaliserande teknologier från inhemska biltillverkare.
Förra veckan livesände en användare vid namn 切安好 på Douyin medan hen testade FSD i en Model 3. Fordonet svängde plötsligt in i vänsterfilen reserverad för mötande trafik, vilket ledde till en direkt kollision med en annan bil. Även om sändningen i sig drog lite uppmärksamheid spreds klipp från efterdyningarna snabbt online.
Tursamt resulterade kraschen inte i några allvarliga skador. Initial skepsis uppstod kring om FSD var aktiverat då, eftersom föraren undanhöll hela videon med hänvisning till avsikt att kräva ersättning direkt från Tesla – ett drag som experter betvivlar skulle lyckas, givet företagets ansvarsfriskrivning om att det inte bär ansvar för FSD- eller Autopilot-händelser.
Därefter delade föraren inspelningen, som bekräftar att FSD var igång och utlöste den olycksaliga manövern. Händelsen understryker riskerna med att överdrivet lita på Teslas semi-autonoma verktyg.
Observatörer, inklusive Electrek-kommentatorer, uppmanar till försiktighet på vägarna och noterar att missbruk av sådana funktioner äventyrar alla. Ett framträdande svar lyfte Teslas promotionspråk som antyder att FSD 'ger dig tid tillbaka', potentiellt nedtonande behovet av tillsyn. Nyligen har företaget mildrat restriktioner för telefonövervakning under FSD-användning, vilket tillför debatten. Separat beskrev Elon Musks AI-chatbot Grok kraschen felaktigt som fabricerad och manellt körd, vilket illustrerar bredare problem med desinformation online.