自动驾驶技术虽然很神,但包括车厂自己,都声称主控权还是在人类,如果切换成自动驾驶,人类最好还是保持专注,双手放在方向盘上。但安全专家直言,这项要求本身就违反人类天性,高估人类的反应能力。
这两年美国特斯拉事故有600多起,启动自动驾驶功能似乎特别容易撞上静止车辆,如道路救援车、消防车等,往往造成严重伤亡。最近美国又发生一起引人注目的事故,特斯拉撞上停在加州高速公路的消防车,还不清楚这辆车是在驾驶控制下,还是使用辅助驾驶或FSD Beta系统。
由于事故太频繁,最近特斯拉被美国国家公路交通安全管理局(NHTSA)盯上,逼特斯拉召回近36万多辆车OTA更新到最新自动驾驶软件FSD Beta。特斯拉最新自动驾驶软件FSD Beta于2020年推送给少数经特斯拉审核驾驶。2021年11月特斯拉向所有有FSD的驾驶推送。FSD Beta目前要价高达15,000美元,特斯拉车主必须购买并安装高级FSD软件才能试用Beta版,特斯拉让驾驶在美国道路测试并提供数据,约40万名车主有安装FSD Beta。
FSD Beta主要吸引力是称为城市街道自动驾驶,让驾驶可干预有限也能在城市行驶,特斯拉声称即使FSD Beta也比人类更安全。特斯拉季安全报告称使用Autopilot的车发生碰撞的可能性低于普通车辆,Autopilot是FSD功能较弱的前身。但专家质疑报告没有考虑外部变量,如道路位置或车型和车龄,一般来说,交通事故在城市地区及新型和豪华车都较少见。
特斯拉将FSD视为公司未来,但安全记录仍令人怀疑。除了最近美国监管单位警告FSD Beta在十字路口有违反道路法规造成事故的隐忧,以及特斯拉自驾技术对静止车辆的判断可能有问题,目前自动驾驶最大问题在于它并非无人值守状态。
特斯拉也认为软件程序只是辅助或支持,人类还是必须全程注视道路,双手放在方向盘上。美国国家公路交通安全管理局指出,驾驶激活自动驾驶类功能时应对车辆操作负责,必须不断监督功能执行并据需要干预以维持交通安全。
从理论讲,这可让驾驶准备好复杂或危险时马上接管控制权,但问题是人类根本做不到交出控制权后还保持警戒。尤其道路危险可能几分之一秒出现,人类几乎没有时间发现、准备和反应,何况当驾驶处于松懈状态。简言之,如《福布斯》访问安全专家所言,“告诉驾驶他们的车可自己应对路况,同时警告驾驶得保持警戒,这只是自找麻烦。”
(首图来源:特斯拉)