河北邯郸的高巨斌怎么也没有想到,自己才刚刚退伍不到半年的儿子高雅宁,会因为家里那辆2014年购买的特斯拉而阴阳相隔;高巨斌也不明白,为什么行车记录仪里早就显示了道路清扫车在前方作业,可是自己的儿子却既没有刹车也没有躲避,而是硬生生地撞了上去。
不久前中央电视台报道了一起关于特斯拉的车祸事故,在这场事故中,驾驶人高雅宁因追尾高速路前方的道路清扫车而当场身亡,其父高巨斌在经过半年对各方的“追问”后,今年7月将特斯拉中国销售公司起诉至北京市朝阳区人民法院,要求赔偿损失一万元。而这背后的原因是什么?
罪魁祸首?
据了解,当时河北高速交警邯郸支队磁县大队在事故后给出的结论是——后车白色特斯拉轿车在遇到前方正在施工作业的道路清扫作业车,没有采取任何的紧急制动和躲避措施,直接相撞,发生追尾交通事故,驾驶特斯拉的司机高雅宁负主要责任。
但高巨斌却一直在苦苦寻找儿子死亡的“真相”,其原因,一方面是因为他知道儿子在部队中担任的是大型军用车辆驾驶员,表现优秀;另一方面是因为,自己曾常听儿子提起特斯拉的“自动驾驶”功能。因此,高巨斌怀疑行车记录仪里儿子一系列“不正常”的表现,与“自动驾驶”功能有关,会不会是因为儿子开启了该功能,放松了警惕,而最终导致了这一可怕的后果。
遗憾的是,直至高巨斌将特斯拉中国销售公司诉至法院,特斯拉方面都只表示对于车辆发生撞击时,是否处于“自动驾驶”功能开启的状态,也就是说,老高也许永远都不会知道,自己的儿子是为何离去。
祸不单行
祸不单行的是,今年5月7日,也就是中国的高雅宁车祸事件发生了4个多月后,在美国佛罗里达州中部的一段高速公路上,一辆开启了“Autopilot功能”的特斯拉Model S与一辆拖拉机拖车相撞,导致车内驾驶员在车祸中不幸身亡。而这个所谓的“Autopilot功能”就是大多数中国消费者口中的“自动驾驶”功能
与高雅宁车祸后特斯拉态度完全不同的是,在美国的这起事故发生后,特斯拉方面立刻进入了调查状态,并随后发表声明表示:“当时Model S行驶在一条双向、有中央隔离带的公路上,自动驾驶处于开启模式,此时一辆拖挂车以与Model S垂直的方向穿越公路。在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。由于拖挂车正在横穿公路,且车身较高,这一特殊情况导致Model S从挂车底部通过时,其前挡风玻璃与挂车底部发生撞击。”
值得注意的是,除了声明撞击方向原因,特斯拉还强调,“Autopilot功能”是一项“辅助功能”,要求驾驶员双手始终握住方向盘。对于该声明,外界将其视为特斯拉试图将事故责任归咎为消费者的误读。
误读or误导
回到高雅宁一案,高巨斌之所以将特斯拉告上法庭,正是基于特斯拉在自动驾驶系统尚不完善的情况下,仍然通过宣传诱导用户去信任这套系统,他认为特斯拉应该为此承担相应的法律责任。
据了解,在特斯拉的中文说明书中,特斯拉的表述是“‘自动驾驶’系统的相关功能仅提供指导,不可取代直接目视观察;行驶时务必观察路况,并准备根据需要采取正确措施。”在高雅宁车祸发生后,高巨斌表示特斯拉在跟他沟通时,已经将这一系统的中文翻译由“自动驾驶”改为“自动辅助驾驶”,并要求销售人员严格将这一系统表述为驾驶辅助系统。
值得注意的是,在特斯拉CEO Elon Musk 2015年首次向外界介绍其“Autopilot功能”时,表述的的确是是“需要双手握住方向盘,当Autopilot激活时,驾驶员可听到提示音,并且在仪表盘上看到一条提示‘请握住方向盘,准备随时接管驾驶’”。但在后来的推广过程中,Elon Musk不仅在公开会议上称“Autopilot比人类靠谱两倍,其第一版本就可比人类自己驾驶更能够保证安全”;并且在自己的社交软件上转发关于使用“Autopilot功能”的驾驶员,在车辆行驶中未用手握方向盘的新闻;更有趣的是,Elon Musk的前妻,竟也成了演示在特斯拉驾驶位上,蒙眼跳舞并行驶在高速路上视频的女主角。
显然,围绕在Elon Musk——这位特斯拉创始人身边的信息,让普通消费者都产生了一种“误区”,认为“Autopilot功能”是可以实现“不用握住方向盘式的自动驾驶功能”的。
去伪存真
中国瑞典交通安全研究中心总监陈超卓向记者表示,目前特斯拉以及大部分汽车厂商口中宣传的所谓“自动驾驶技术”为L2级,即部分自动驾驶/辅助自动驾驶,同时具备纵向(比如紧急自动刹车AEB)/横向控制功能(比如车道控制、弯道行车)。
据了解,该级别依据的是此前NHTSA(美国高速公路安全管理局)出台的自动驾驶技术分级标准,该标准指出自动驾驶汽车从Level 0到Level 5共有6个等级——其中0级为无自动化级,1级为辅助驾驶级,2级为部分自动化,3级为有条件的自动化(人只有在请求干预时才进行操控),4级为高度自动化(即便人对请求干预不响应系统也会自主控制),5级为全自动化。而目前大量普通消费者混淆了“部分自动驾驶/辅助自动驾驶”和完全自动驾驶的概念,这也导致了悲剧的发生。
但不少专家仍然认为,未来完全自动驾驶技术带来的超越是普通人驾驶汽车可以预见且无法企及的,因此在此时因为个别车祸事件断言该技术极具危险性,是不负责任的。有一组来自国外的数据显示,普通人类驾驶汽车平均每行驶9400万英里就会发生一起事故,而截止到特斯拉美国死亡事故发生之前,特斯拉已经行驶了1.3亿英里了。从概率上讲,使用特斯拉“Autopilot功能”是相对安全的行为,但是或多或少都会发生意外状况。
真正的问题
事实上,自自动驾驶这一概念的提出开始,国内外对其的讨论就从未停止过,而且范围也从单纯的技术层面,扩展到了政策法规以及伦理道德层面上,甚至对实现真正的由智能驾驶构成的未来交通状况也开始有所展望。
据了解,早在今年1月,联合国负责车辆管理的机构已经开始起草新的国际安全法规,其中就将对自动驾驶汽车技术进行规范管理。而由联合国机构牵头的目的,就是能尽量在源头上统一规范,未来助力自动驾驶技术的发展。
对此,清华大学汽车工程系副主任宋健就向《汽车商报》记者表示,不仅整个社会对于自动驾驶车辆的配合是大问题,其技术更是关键所在,现在被视作自动驾驶技术解决办法的常见“手段”——包括车辆传感器和卫星等,现阶段都无法满足所谓的完全自动驾驶的要求,因此,要实现真正的全自动化自动驾驶仍然很遥远。
交通运输部交通干部管理学院的张柱庭教授也从法律和伦理道德层面表达了观点,他表示,在中国,关于无人驾驶汽车,必须先考虑清楚通行、定罪和赔偿的问题。其中,《道路交通安全法》是核心问题。目前该法尚未规定无人驾驶汽车登记、上路、检验、培训等方面的问题;而上路后,一旦发生事故,该如何定罪;甚至包括事故后的赔偿问题,都值得全社会的深思和讨论。(汽车商报-孙雯)
评论