首页 > 科技 > 智能家电 > 特斯拉Autopilot系列事故最详细梳理

特斯拉Autopilot系列事故最详细梳理

  首发,来自公众账号啸语,原创技术观察,写给万分之一的创新者。

  传送门:

  一、特斯拉Autopilot系列事故最详细梳理

  二、廉价化激光雷达的希望:MEMS激光雷达 vs 固态激光雷达

  三、激光雷达存废之争—技术路线盘点

  四、论未来出行的商业模式

  特斯拉的 Autopilot 本质上是辅助驾驶技术,但是一些司机抱有过高信任,由此导致了一系列事故,创造了自动驾驶领域的大部分头条新闻。美国汽车工程师协会(SAE)将自动驾驶分为了从1到5的5个级别,以区分辅助驾驶和无人驾驶技术,大部分文章谈到这条就结束了。

  要了解自动驾驶的未来,我们先回顾一下新闻。

  特斯拉Autopilot系列事故盘点

  2015年10月14日,特斯拉公布7.0版本软件,为已经售出的特斯拉Model S开启了Autopilot功能,出尽风头,并且被《麻省理工科技评论》评为“2016年十大突破性技术”。

  2016年1月20日,京港澳高速河北邯郸段,特斯拉Model S撞上一辆正在作业的道路清扫车,交警判定负有事故主要责任的司机高雅宁死亡。死者家属起诉特斯拉索赔1万元,理由是营销过程中存在误导行为,而不是特斯拉的产品漏洞。(这次事故直到2016年9月14日才由中国中央电视台曝光)

  2016年5月7日,美国弗罗里达洲的Joshua Brown开着一辆自动驾驶模式的Model S,超速撞到正在垂直横穿高速的白色拖挂卡车,车顶被削平,驾驶员死亡。事发时车速74mph,而该路段限速65mph。Joshua Brown从海豹六队退役之后,开了一家互联网公司,上传的Autopilot测试视频曾经被Elon Musk转载,观看次数几百万。

  对于这次事故,各路专家都给出了诸多可能的解释,例如:

  Musk本人的Twitter:雷达精确的测算了出了前方有一个巨大的障碍物,但是因为卡车过大的反射面积以及过高的车身,从毫米波雷达的角度来看,它更像是一个悬挂在道路上方的交通指示牌/桥梁/高架路,因此被忽略了。

  长焦镜头无法看见整个车辆,所以误认为飘在天上的云。

  天空太亮,摄像头对于大面积白色物体很难从图像中提取特征点。

  超声波雷达测量距离过短(2米左右),在高速行驶中没有任何反应时间。

  这次事故的关注度最高,而另外几次事故虽然没有死亡,但是对于特斯拉的打击更严重,因为以上借口完全无效。

  2016年5月底在瑞士的事故:Autopilot模式Model S的前方,一辆汽车变道,避让一辆静止货车。Model S似乎检测到前车变道而轻微加速,但是没发现静止货车,因此轻微加速地撞向了货车。

  这次撞到的静止货车不是大面积白色,而是蓝色和黑色,并且有复杂图案,也就是说特斯拉似乎可以撞上任意颜色和形状的静止障碍物。

  在这次事故之后,前谷歌深度学习创始人吴恩达在Twitter表示

  It's irresponsible to ship driving system that works 1,000 times and lulls false sense of safety, then... BAM!。(提供1000次正常,但给人虚假安全感的驾驶系统是不负责任的)

  2016年8月3日,中国的 Qunar_大羅纳尔多驾驶的Autopilot模式Model S再次撞到了停靠在路边的故障车。程序员车主投诉特斯拉公司夸大自动驾驶仪功能误导买家,涉嫌虚假宣传后,特斯拉在其中国官网上删除了“自动驾驶”、“无人驾驶”等字眼,改称“Autopilot 自动辅助驾驶”。特斯拉公司发言人表示:“特斯拉正不断对各方面进行改进,包括翻译方面。过去几周,我们正在努力解决跨语言产生的差异。这个时机与当前事件或相关报道无关。”

  2016年8月7日德克萨斯州的Mark Molthan驾驶的Model S在处于Autopilot模式时偏离公路并撞上路边的护栏,他表示“Autopilot给了你安全的错觉。我不准备充当一个试飞员。汽车没有发现弯道,直接冲上了护栏,而且并没有停下来—— 实际上在第一次撞上护栏后,它仍继续加速。”虽然车主没有打算起诉特斯拉,但他的保险公司ChubbLtd.可能会起诉。

  2016年9月28日在德国,一辆特斯拉汽车与旅游大巴发生车祸,无人死亡,特斯拉公司认为事故不可避免,与Autopilot无关。

  德国交通部部长要求特斯拉停止使用“Autopilot”这个词,为此特斯拉聘请了第三方调查公司对于车主进行调查,结果98%的受访车主都明白他们在启动Autopilot之后还要继续保持对汽车的控制。考虑到特斯拉已经累计销售十几万辆,那么也就是说有2%,也就是几千名车主在事故接连不断的半年之后,仍然可能会对自己和他人的安全造成威胁。

  这几千名过分勇敢的小白鼠可能造成什么后果呢?2016年11月16日,投资人和内容创业者李笑来老师在一篇阅读量达到4万的文章中提到他利用特斯拉的自动辅助驾驶功能在 “甚至开始在路上“写”文章了” ,特斯拉中国区如果还没请李笑来老师更正这个危险的示范,就太欠缺嗅觉了。

  除了上面的中国区虚假宣传争议之外,特斯拉的Autopilot还惹上了事故之外的几个麻烦:

  正在调查事故的美国国家公路交通安全管理局(NHTSA),表示特斯拉要求客户签署的保密协议可能会妨碍调查。对此特斯拉在博客的解释是:要求用户签订的“Goodwill Agreement”,目的是防止特斯拉给客户折扣或者免费保修在法庭上对公司不利,协议并没有提到NHTSA或者政府,后来特斯拉修正了协议的措辞。

  美国证券交易委员会(SEC)正在调查特斯拉是否违反证券法规,因为特斯拉公司以及Musk本人在5月18,19日出售了一批特斯拉公司股票,但并未将5月7日的Autopilot致死车祸向投资者及时进行公开披露。对此特斯拉在博客的解释是:特斯拉公司在5月16日把事故告诉NHTSA仅为了通报事实。特斯拉调查员5月18日到达事故现场并回收车载数据,5月最后一周才完成公司内部调查。

  律所Hagens Berman在组织对于特斯拉Autopilot 2.0未实现承诺功能的集体诉讼,该事务所曾经起诉大众和梅赛德斯。

  以上几次车祸大部分是撞了静止车辆或者障碍物,弗罗里达事故中,垂直于特斯拉前进方向的拖车,在摄像头来看也是静止的,距离判断错误,所以特斯拉或Mobileye面对静止障碍物有识别缺陷,如果有激光雷达参与,至少不会加速撞上。特斯拉的系列车祸一次又一次证明了Mobileye摄像头识别的局限性,以及传感器融合并不是让程序员加班一两个月就能让电脑学会的,那么我们接下来看看特斯拉是如何应对事故的:

  2016年7月17日,Musk在Twitter表示正在与其雷达供应商博世公司合作,改进雷达软件。"Btw, want to thank both Bosch and MobilEye for their help and support in making Autopilot better. Please direct all criticism at Tesla.” 通俗地说是:博世和Mobileye的小伙伴都帮了大忙,事故不是他们的责任,我们一家来背锅。虽然Musk承认特斯拉没用好毫米波雷达,把责任自己揽下来算是口头给Mobileye面子,但是这个解释更体现了摄像头的局限。

  2016年7月26日Mobileye宣布停止与特斯拉的未来合作,Mobileye 认为他们的产品功能本来就是有限的,是特斯拉激进的权限开放和宣传导致车主的使用超出了功能极限。

  2016年8月25日,特斯拉对于Autopilot涨价500美元,由原来的2500美元上调至3000美元。司机们给特斯拉的beta版软件提供数据,特斯拉非但不给补贴,在系列事故之后涨价而不是退款,这个动作确实很有个性。“退款对于Musk很难接受,于是就用早买占便宜来安抚小白鼠用户”,对于这次小涨价,以上解读并不容易否定。

  2016年9月11日,特斯拉宣布Autopilot的 v8.0固件升级,“用雷达看世界”,把视角不足的毫米波雷达作为汽车感知的主力,摄像头作为辅助,特斯拉官方博客的原话是雷达作为主传感器,并且无需摄像头进行图像识别确认(can be used as a primary control sensor without requiring the camera to confirm visual image recognition.),说得如此斩钉截铁,我们可以认为特斯拉对于利用现有硬件在短时间内搞定图像识别或者传感器融合已经彻底不抱希望。

  此外特斯拉还将建立Autopilot“惩罚机制”,如果司机在一个小时内对要把手放在方向盘上的警告忽略次数超过3次,系统就会自动关闭,只有在车熄火重启后,系统才能重新被激活。后来的限制更加严格:“即使在自动驾驶中,驾驶员也需要双手紧握方向盘。当驾驶员的双手离开方向盘几秒钟后,系统便会自动报警;如果警告被忽视的话,Autopilot将自动退出。”

  通过功能缩水,我们可以预测,未来Autopilot责任事故会很少发生,因为驾驶员被迫紧握方向盘,所以发生任何事故都无法指责Autopilot(其实历次Autopilot事故的责任原本都是司机的,只不过以前特斯拉过于激进,没有限制司机放手而引发了争议)。

  2016年9月16日,Mobileye 补刀:Elon Musk曾向Mobileye保证,在使用Autopilot时,驾驶员不会被允许双手离开方向盘。然而,最终结果并非如此。Mobileye表示,在2015年5月两家公司的产品规划沟通过程中,该公司曾就特斯拉系统的安全性表达过关切。

  2016年10月19日(临时安排发布又跳票两天之后),Musk宣布所有的特斯拉新车将标配“具有全自动驾驶功能”的硬件系统——Autopilot 2.0,包括8个摄像机、12个超声波传感器以及一个前向探测雷达,比上一代快了40倍的英伟达GPU运行特斯拉自研神经网络,最终将实现SAE 5级自动驾驶。升级的结果是新系统从3000美元涨到了8000美元(未来解锁可能会更贵)。

  总结:

  在上述系列事故发生之前,Elon Musk一向认为激光雷达并不适合汽车场合,被动光学手段(俗称摄像头)加一个前向雷达就足够了。他澄清并不对激光雷达抱有偏见,SpaceX在龙飞船与国际空间站对接时候会使用激光雷达,然而他认为激光雷达在自动驾驶并不必要。

  “I don’t think you need LIDAR. I think you can do this all with passive optical and then with maybe one forward RADAR.”

  事故发生之后,Musk仍然认为现有的硬件技术完全满足无人驾驶要求,2019年可以实现完全自动驾驶,10-15年内,大部分正在使用的轿车、卡车都会被自动驾驶车替换,并且仍然表达对激光雷达的否定,加强了对毫米波雷达的重视。然而以上事故,理应引起自动驾驶领域激光雷达重要性的讨论:

  被动视觉早于主动雷达的状况,在历史上也曾经出现:著名美国心理学家伯尔赫斯·弗雷德里克·斯金纳在二战时,曾研究过利用训练过的鸽子控制的精确制导炸弹。当时的雷达技术刚刚起步,无法制导,所以由弹头容纳3只鸽子,通过喙啄击屏幕控制炸弹,当三只鸽子出现分歧时,少数服从多数。大家都能想象训练困难,所以最终被成熟的雷达技术所取代。

  用现在自动驾驶和人工智能领域的时髦术语来描述,这就是二战时期的 “多目摄像头被动光学导航,由低功耗的超大规模生物神经网络深度学习进行控制,三重冗余设计,妥妥的五级自动驾驶(只不过交管部门管不到)”。用更加耸人听闻的说法,这就算自主杀人的机器人了(虽然完整动物塞进去和用缸中之脑控制导弹本质上是一样的)。

  虽然如今的车用摄像头性能大概能追上鸽子的眼睛,训练电脑比训练鸽子先进很多,但是我很好奇哪家的车载人工智能优于鸽子。区分猫狗或者诊断癌症照片的时候,用计算机视觉是责无旁贷的。但是要判断障碍物距离,激光雷达显然更可靠。激光雷达成本降低之后,深度学习的价值可能缩水。

 

本文来自投稿,不代表本人立场,如若转载,请注明出处:http://www.souzhinan.com/kj/a445144401.html