场景软件把生成的“场景”,转化成视频,然后,通过视频注入板卡,把视频发送给ADAS控制器。ADAS控制器对其进行处理之后,会把对车辆的“转弯”、“加速”之类的命令通过CAN总线发给场景软件PC,场景软件控制汽车在场景中实现“转弯”、“加速”等动作,就可以实现“基于场景软件的ADAS无人驾驶”了。
这是一个几乎不具备商用价值的ADAS测试方案,因为它的信息来源就不是真实的驾驶环境,而是由“场景软件”生成的。视频图像质量非常理想化,没有雪花毛刺,没有雾霭蒙蒙、电闪雷鸣,没有行人突然闯红灯,也没有宝马车灯突然亮起,甚至整个赛道都没有别的车辆……
这样一个ADAS测试方案,主要应用领域还是高校理论研究,这种理论研究的目的本来就不是为了商用,而是为了在某一技术点上,取得研究突破,发现新方法、新理论,为产业界、工程界提供理论支持。
当然,企业也有可能使用这种ADAS测试方案,但目的主要是为了样板工程建设、演示,对实际车辆开发没有多大用处。
第二个模式,商业应用的ADAS测试。其最大的特点是,抛弃了“场景软件”,改用实车录制的视频图像数据(以及雷达、超声波传感器信号等等),相对辛苦一些,我们称其为“草民”。
此种模式下,ADAS测试方法也有多种,简单地说,比如学习、训练;复杂了说,比如人工标记。
所谓“学习、训练”,就是由人工开车,车上装一些摄像头,跑个几百几千公里,然后把录像拿回实验室,让ADAS控制器去学习。ADAS控制器学习的终极目标,就是能跑出和人工驾驶同样的轨迹,其方法就是识别视频里面的各类物理,对ADAS控制器内部的大量参数进行不断地迭代、优化,从而最终实现“仿生”驾驶,使ADAS控制器“计算”出来的轨迹,和视频中的真实轨迹相一致。
所谓人工标记,是一个更加细致的测试阶段,主要做法就是,对视频进行人工标记,由工程师先代替ADAS控制器,查看视频,并对需要处理的对策进行期望值标记。说白了,就是,一个合格的驾驶员,人工开车的时候,看到这样的视野场景,应该怎么反应,是加速还是减速,是转向还是刹车还是鸣笛,标记下来。把人应该有的正确操作,标记在视频的时间轴上,当然,这些“操作”,在无人驾驶模式下往往以“信号变量”的形式出现。然后,我们就通过视频回放设备,把视频输入给ADAS控制器,然后在同一个时间坐标系下,核对ADAS控制器的反应是不是正常的(普遍使用自动化测试的方式),各个信号变量的值,对不对,从而为算法的进一步优化提供依据。
几乎全部的ADAS供应商,都是采用这种“视频回放”的ADAS的测试方案,毕竟,软件算法是要上车商用的,虽不需要高深理论,但是要求工程上成熟可靠,搞一些场景软件来测试,可不行。
在这个领域,全球最优秀的选手叫英伟达(NVIDIA),没错,就是你电脑上显卡的供应商,而且创始人还是个华人。英伟达这个公司几乎包揽了全世界图形图像处理领域所有的最先进技术,在无人驾驶领域更是当之无愧的王者,百度、华为、特斯拉什么的,在这个领域全是它的小弟。
摄像头和ADAS控制器之间,传输视频所使用的协议类型一般为LVDS(low voltage differ signal),比如GMSL、FPDLink、APIX等协议。在摄像头端,通过serializer模块,把YUV、RBG等数据转换成APIX协议数据,到了ADAS控制器端,通过deserializer模块,把APIX协议数据还原,给ADAS控制器进行处理。
我们在做ADAS控制器的测试的时候,就可以通过这样的模块(视频回放板卡),把视频文件转化成LVDS协议信号,发给ADAS控制器,用于训练ADAS控制器,或者用于对ADAS的控制信号进行比对(对于车企而言,虽然做ADAS无人驾驶测试,比不上ADAS供应商,但是,也是值得去尝试的,有利于车企建立这方面的能力)。
当然,这种LVDS协议信号仿真模块,其意义不仅仅是针对ADAS测试,它对车载多媒体模块、仪表、中控等各种需要传输图像、视频的模块,都非常有用,它既可以仿真信号源,也可以仿真信号接收处理模块,可以协助工程师在缺少对端模块的情况下,通过仿真来完成对自身模块的测试。
按照我们对HIL本质的理解,HIL是一个虚实结合的系统,在缺少“周围件”的情况下,通过板卡或设备模拟出“周围件”,形成一个有机的交互体,都应该称作HIL。我们通常概念中针对发动机控制器ECU、VCU、BMS的HIL,只是HIL针对多管脚单片机控制器的一类应用而已。
目前来看,国内市场能供应这种LVDS协议生成、处理模块的厂家微乎其微,德国GOEPEL公司即为其中一家,作为德国大众的金牌服务商,其拥有该领域的完整解决方案,业务遍布全球,相信一定可以为无人驾驶测试、车载媒体测试领域带来高质量的解决方案,有需要的朋友可以联系他们。