视频号官方账号
微信官方账号
今日头条官方账号
汽车人物头条账号

特斯拉 Autopilot 事故频发 我们能吸取那些经验教训?

  • 作者:
  • 来源:电车评论网
  • 时间:2018-08-20
  • 浏览:5149
 
    按:通向自动驾驶的道路上我们还有许多问题要解决。本文由雷锋网编译自 Consumer Reports,原文标题为:What We've Learned From Tesla Autopilot and Self-Driving System Crashes。
 
     最近特斯拉 Autopilot 系统和其他一些公司的驾驶辅助系统可是惹出了不少是非,虽然事故调查结果还未完整出炉,但从一系列曝光的细节我们已经能大致对这些系统有些了解。从技术的角度来看,它们依然限制多多,只能算是自动驾驶时代到来前的过渡品。
 
    《消费者报告》汽车测试主管 Jake Fisher 指出,驾驶员辅助系统正逐渐成为现代车辆的标配,它们不但能让车辆紧跟车流行驶,还能让车辆不会偏离车道。
 
     不过,这些贴心功能的出现可把驾驶员们惯坏了,他们开始相信有了类似系统车辆就能独立运作了。事实上,驾驶员们依然不能放松警惕。
 
 
     “这些系统的功能越强,他们就越危险。”Fisher 说道。“一旦驾驶员在辅助系统身上尝到了甜头,他们就会因为轻信技术而忘记看路,这也是人之本性。”
 
     今年还没过半,就有两辆特斯拉追尾了停着的消防车,另一辆 Model X 则一头撞向隔离带变得粉身碎骨,驾驶员也跟着一块送了命,这三起事故中,车主无一例外都开启了 Autopilot 系统。今年 3 月,Uber 的自动驾驶测试车则“杀死”了一位正在过路的行人。
 
    虽然我们可以从技术的角度解读这些安全辅助系统的局限,但最近的几起车祸却扎扎实实给人类驾驶员上了一课:那些喜欢依赖自动刹车和自适应巡航等功能的人必须吸取点教训。
 
经验教训
 
    驾驶员们注意了:那些使用类似 Autopilot 等高级驾驶员辅助系统的人必须时刻注意路况。
 
    前不久美国国家运输安全委员会(NTSB)的初步报告就显示,在刹车、转向或加速这三个动作上,Autopilot 并不值得用户依赖,因为它有自己的局限性。虽然名字里带着“Auto”的字样,但它且始终只是辅助功能罢了。
 
 
    玩驾驶员辅助系统的可不只特斯拉,凯迪拉克。英菲尼迪、奔驰、日产和沃尔沃等公司都有类似的系统,只是名字和特斯拉不一样而已。
 
    这些系统在日常驾驶中确实能提升车主的驾乘体验,但也容易让人麻痹大意。因此,车主在开启此类系统后,一定不能分心,必须注意看路。值得一提的是,凯迪拉克的 Super Cruise 贴心的设计了“盯着”司机的摄像头,如果你驾驶时精神不集中,它就会给出警告。
 
    行人探测上依旧要下功夫:这项重要的技术依旧处在起步阶段,发生致死事故的 Uber 自动驾驶测试车就是典型的例子。据悉,Uber 的软件将过路的女性识别成了物体,她推着的自行车则被识别成了汽车。虽然这辆改装沃尔沃 SUV 的自带系统识别到前方有物体,但却没有警告安全司机,自己也没有及时刹车。
 
    自动紧急刹车(AEB)也有软肋:虽然在某些情况下很有效,但该功能无法保证每次都能力挽狂澜。举例来说,高速行驶时该功能就会成为一个摆设,它只能降低车速,降低撞击的伤害。虽说这对救人也有一定作用,但它无法防止碰撞事故发生。因此,关键时刻还是得靠自己,AEB 并不是司机的保护伞。
 
    突然地变化会将司机置于险境:最近的一些特斯拉事故都有着类似的场景。发生事故前,那辆特斯拉肯定是在巡航控制模式下跟车,结果它跟着的那辆车却突然变现来躲避前方的静止或慢速物体。最后面对道路上突然出现的物体,Autopilot 没时间反应,随之而来的就是追尾事故。
 
   自适应巡航可“听话”了:这句话虽然略带讽刺,但从某些角度来看并没有问题。使用驾驶员辅助系统的车辆确实会在前方慢速车辆离开车道后加速到司机此前的预设速度,即使是前方有障碍物。当然,如果这套系统能探测到障碍物就另当别论。NTSB 对于 Model X 致命事故的初步调查就显示,那辆车在撞击路障前突然加速。
 
   见到了路上的测试车可要小心:Uber 的这起致命事故就给大家敲响了警钟,自动驾驶测试车的水平可是良莠不齐,测试遵循的安全标准和政府的管理也不尽相同。
 
   对于 3 月 23 日的那起 Model X 致命事故,NTSB 发布的初步报告显示,38 岁的司机 Walter Huang 在事发前共在 Autopilot 模式下行驶 19 分钟,而且正在碰撞发生前 6 秒钟内车辆处于“双手丢把”状态。不过,在出事前一分钟,Huang 倒是断断续续的握了 34 秒的方向盘。
 
   在这起事故中,也出现了前车变道的情况。前车在碰撞前四秒离开车道,结果一秒后这辆 Model X 就从 62 英里/小时加速到了 70.8 英里/小时并一头撞向隔离带,车辆没有任何预先刹车或躲避障碍的迹象。
 
   倒霉的是,原本用于吸能的路障却因为此前的一次事故出现了破损,最终导致车辆严重撕裂。虽然有人在车辆着火前及时将 Huang 从驾驶舱中拉了出来,他也没能挺过来,车辆碰撞时速度太快了。
 
2016 年在首次发生事故后,特斯拉就警告驾驶员,Autopilot 只是一套辅助系统,并非完整的自动驾驶系统,开车时驾驶员还是要把双手放在方向盘上并实时注意路况,关键时刻得自救。不过在警告系统上特斯拉做得却很一般,NTSB 的报告就指出,即使 Huang 频繁脱手方向盘,在最后 15 分钟内 Autopilot 也没有履行自己的警告任务。
 
技术瓶颈
许多厂商在自动驾驶技术的开发上都笃信多传感器的冗余,它们认为摄像头、雷达和激光雷达协同工作能排除各种假阳性状况,以保证车辆安全。
 
特斯拉却是厂商中的异类,与其他玩家的三保险策略不同,它们认为摄像头和雷达就够用了。特斯拉 CEO Elon Musk 就多次在公开场合表达自己对激光雷达的不屑,他认为这种传感器价格贵还不说,其有效性也被夸大了。因此,特斯拉也是唯一一个在售车辆完全满足自动驾驶硬件标准的厂商,它们只需一个软件推送,就能毕其功于一役。
 
不过,特斯拉追尾路边消防车的事故却着实打了脸,看来摄像头和雷达的组合还是有自己的天花板。卡耐基梅隆大学(自动驾驶的黄埔军校)互联和自动驾驶联合研究实验室主管 Raj Rajkumar 就表示,基于摄像头的系统需要训练才能认出某些特殊的物体,如果在现实世界它们遇见了不会的“题”,就会把责任都推给雷达。
 
“消费者对于厂商的承诺可不能全信,里面的宣传成分很高的。”Rajkumar 说道。
 
建立边界
去年,NTSB 终于完成了 2016 年的一次特斯拉致命事故调查。当时一辆处于 Autopilot 模式下的 Model S 撞上了佛罗里达高速上的一辆半挂车。NTSB 发现,这套系统存在缺陷,它无法识别路上停着的大型物体。
 
通用的解决方案就有所不同,Super Cruise 非常保守,它们只能在美国和加拿大的高速上使用(可用路段共 13 万英里),而这些路段都有通用精心制作的高清地图。
 
《消费者报告》宣传部门分析师兼车辆和产品政策主管 David Friedman 就指出,特斯拉从未提供过详细数据,让车主知道 Autopilot 到底在哪使用才是安全的。
 
“特斯拉的辅助驾驶系统即使在感知、验证和反应上都不够可靠时也能使用,在 NTSB 帮它们挑出许多毛病后,Musk 也没有整改到位。”Friedman 说。
 
各家公司的回应
测试车发生重大事故后,Uber 的自动驾驶测试进入停摆状态,它甚至直接放弃了亚利桑那州的测试工作,未来的重心只会放在加州和宾夕法尼亚。同时,Uber 还雇佣了 NTSB 前主席 Christopher Hart 做公司的安全顾问。
 
特斯拉则承认 Autopilot 有局限性,自适应巡航和自动紧急刹车都没有车主自己的操作靠谱。
 
首先,自适应巡航功能在面对静止车辆时,无法自动刹车或加速,特别是在时速超过 50 英里/小时(约合 80 公里/小时)时。其次,特斯拉还表示,紧急自动刹车的初衷则是降低碰撞的严重程度而并非避免碰撞。此外,自动转向也无法驱动车辆绕过己方车道上的车辆。
 
在回应 NTSB 的初步报告时,特斯拉发言人表示:“用户安全是特斯拉的第一要务,这也是我们积极与调查部门协作的原因,我们想知道到底发生了什么,未来如何去做来防范悲剧再次发生。特斯拉 Autopilot 不能避免所有事故,100% 安全的标准不太现实。但毫无疑问的是,对于驾驶员、行人和骑行者来说,这套系统确实让这个世界变得更加安全了。”

发表留言

姓名:
手机号:
立即提交

观点排行榜

一周热点新闻

企业电话
18196532187
微信公众号

电车评论公众号

企业微信

微信

返回顶部