由于特斯拉FSD存在“安全疑虑”,美国高速公路交通安全委员会要求召回受影响的36万辆车,特斯拉将通过软件更新修复这项瑕疵。
特斯拉应NHTSA(国家高速公路交通安全委员会)要求,将召回2016~2023 Model S和Model X,以及2017~2023 Model 3和2020~2023的Model Y,共362,758辆车,修复自动驾驶软件瑕疵。虽然说是召回,但特斯拉车主并不需要真的回厂,只需通过软件更新就能修复瑕疵。
NHTSA工程师在测试FSD Beta时发现,特斯拉计算机可能学会了某些人类的坏习惯,偶尔会做出违规驾驶,造成周边人车的安全疑虑。
“FSD Beta可能会在转弯车道直行,看到停车再开标志时不会完全停止,或是抢黄灯通过路口。”NHTSA公告中指出,FSD Beta还会偷偷超速,有时候甚至会超过车主设置的速度上限。
NHTSA对36万辆特斯拉车辆的召回令。(Source:NHTSA)
虽然官方测试表示,这些状况只在特定而且罕见的情形发生,但依然会对交通安全产生潜在危险,因此要求车厂召回修复。特斯拉与NHTSA沟通后,预订将在4月发布相关软件更新,修正这项问题。
特斯拉的软件更新频率相当高,能够不断修正问题,但关于自动驾驶违规这件事,其实事关重大。假设有一套自动驾驶软件会100%严格遵守交通法规,相信很快就会被市场淘汰,因为道路状况诡谲多变,有太多需要依现场判断的决策。
举例来说,当行经一条双向车道中间画有双黄线,但车道上却因为工程、消防、救护倒垃圾或是最常见的并排违停挡住车道,最理想的状况是判断对向没有来车后,跨越双黄线超车,这时就需要AI能够违规驾驶,否则就得脱手给人类判断。
从辅助驾驶的观点出发,这个问题只要解除辅助驾驶,丢回给人类就好,但对于特斯拉、Waymo这些想要完成Level 5真自动驾驶的公司来说,如何判断马路上千奇百怪的状况,并做出合适的对策才是一大难题。
试想一下,假设车厂真的具备了Level 5能力,你的“伙计”自动开到公司接你下班,但因为你公司门口画满红线,计算机在“绝不违规”的条件下,要在下班时间的市区找到一个可以合法暂停上下客的空间,不知道要等多久。至于上车后,想要去买一份晚餐回家,又是另一个故事了。
(首图来源:特斯拉)