特斯拉又撞车了。
2020年6月1日,一段特斯拉在高速上撞上侧翻的货车视频在网络上流传。这段高速监控视频显示,一辆白色大货车发生侧翻后横在高速公路左侧,几乎占据了左侧两条车道,一辆特斯拉Model 3从后方疾驰而来,在距离侧翻车辆只有10米左右时,才有制动,画面显示制动3秒后,撞上了货车。
这个场景让人回想起2016年,一辆特斯拉Model S在自动驾驶模式下行驶在美国佛罗里达州的一个高速路口时,与前方左拐的大货车发生碰撞,导致特斯拉车主身亡的案例。这次交通事故的原因还未查明,不过似乎并没有人员重大伤亡,空载的货车车厢对碰撞有一定的缓冲。
四年过去了,尽管特斯拉弃用Mobileye自研芯片,测试里程数成倍增加,甚至已经更新了多次系统,但在应对类似场景中还是会产生错误。
很多人在思考这辆车当时是处于自动驾驶还是人为驾驶,如果处于人为驾驶为何车辆自带的AEB没有及时响应,避免碰撞。
其实当人开车,车速过快时,即使是满足NCAP五星的车辆,AEB系统也只能减缓碰撞。而当车辆处于自动驾驶时,理论上讲,车辆并不是单纯的AEB系统,需要叠加自动驾驶功能,而此时,对于一辆特斯拉来说视觉感知优先的,它的权重往往优先于雷达的判断,如果感知系统发生了误判,可能其他系统也不会有反应。
通常,雷达无法感知静止的障碍物,而特斯拉没有激光雷达。而立体视觉的缺陷在于,主要算法是寻找两台相机之间跨极线的像素偏移。纯色对象没有可感知的像素偏移,因此可能会漏掉白色的车厢。
目前所有特斯拉车辆均搭载自动辅助驾驶所需的硬件,且所有车辆均标配基础驾驶辅助功能。根据官方宣传,该功能在启动后能够根据其他车辆与行人在行驶车道内自动辅助实施转向、加速和制动,包括紧急制动、碰撞预警和盲点监测等功能,而前置雷达能够探测前方较远距离的障碍物,可达160m。
理想汽车CEO李想曾在微博上发表观点表示:“目前摄像头+毫米波雷达的组合像青蛙的眼睛,对于动态物体判断还好,对于非标准的静态物体几乎无能。视觉在这个层面的进展几乎停滞,哪怕是动态,车辆以外的识别率也低于80%,千万别真当自动驾驶来使用。”
对于传感器识别静态物体的难点,法雷奥顾剑民也认为,“对摄像头来说,需要用机器学习来训练识别物体。但静态物体类别多,形态也千差万别,没经过样本训练识别不了。”所以,侧翻的货车这个样本似乎在之前训练场景里是缺失的。此外,前置摄像头在识别物体时也对天气和照明条件敏感;对于快速移动的汽车,前置摄像头通常最终会捕捉到模糊或扭曲的物体图像。”
实际交通环境中的静态障碍物种类比较复杂,单纯的一种传感器很难达到高的识别效果。雷达与摄像头二者结合可以相对实现一些标准静态障碍物的识别。但即使这样,车道内出现非标准物,仍然是个难题,即使机器学习也不能识别没有训练过的障碍物,而且对摄像头的探测距离,精度和视角都有比较高的要求。
弃用激光雷达的特斯拉,一方面只能通过在现实中积累更多的数据样本,另一方面也在研究虚拟激光雷达来进一步保障车辆安全,达到真正的自动驾驶。而这一次又一次的交通事故,是否会让马斯克在激光雷达使用上改变最初的想法?