在自动驾驶环境感知中,如何实现传感器数据融合
6月11-13日,2019亚洲消费电子展(CES Asia 2019)在上海新国际博览中心举办。本届展会共吸引国内外500多家展商呈现全球顶尖科技,其中包括5G、人工智能、增强现实/虚拟现实,以及汽车技术等相关领域,全面展示科技生态系统的创新成就。
自动驾驶安全隐患重重
值得一提的是,2019亚洲消费电子展的汽车技术展区面积比上届扩大了近一倍,诸多更具突破性的汽车前沿科技将在2019亚洲消费电子展上亮相,展示汽车技术领域的全新变革,汽车技术领域共有105家企业参展,自动驾驶在此次展会上大放异彩。
据调研显示,中国未来可能成为全球最大的自动驾驶汽车市场。到2030年,自动驾驶将占到乘客总里程(PKMT)的约13%,自动驾驶相关新车销售及出行服务创收将超过5000亿美元。
不过,这一新技术的发展并非一帆风顺。人们对自动驾驶车辆安全性要求很高。世界卫生组织指出,全球每年有多达135万人因道路交通意外死亡。即使这个数字降至1/4,同样难以让人接受。
那么,有哪些技术可以保障自动驾驶安全性?自动驾驶汽车感知环境,主要靠激光雷达传感器和雷达传感器,有着广泛应用的传感器数据融合在此基础上变得越来越重要了。
传感器融合能够通过多个传感器的组合进行数据分析,从所有传感器获取数据,并使用软件算法交叉引用多个信息源,以创建一致的图像。
如何实现传感器数据融合
那么,传感器数据融合是如何实现的呢?
传感器融合
传感器数据融合首先是将不同类型的传感器优势互补。例如,毫米波雷达传感器的优点在于对前方物体探测时,对于其在纵向方向上的相对速度、距离等属性探测非常精准;而摄像头在判断物体的特征,如是什么类型的物体上,有先天的优势,同时基于视觉的算法对于物体在横向方向上的位移判断又相对雷达来说更加精准,那么数据融合会将不同传感器,如雷达和摄像头所探测到的各自物体的最优属性进行筛选,也就是取各自传感器所探测到的精度最优的属性,这样就相当于互补了各自的不足。
其次,每一种传感器依据于各自的探测,对于同一个物体会对其存在概率(即“可信度”)进行初步判断,数据融合会将不同类型传感器所探测到的同一个属性的目标的存在概率进行叠加,也就是增加其可信度。这种方法特别是在某一种传感器受内部或外部因素影响,如摄像头受强光、极端天气等影响时,避免因其而带来的系统性能降低,保证系统可靠的运行。
而同时因为数据融合是以这种取长补短的互补冗余的方式来保证系统工作,除了我们刚才说的保证系统的可靠性之外,有了传感器数据融合后还有诸多的好处。
首先是保证系统在正常工作范围外,可以有效的降低误作用的发生,特别是针对静止物体,数据融合的系统在判断上加入了摄像头对于其属性的判断,可有效防止误作用的发生,并且提升性能。
其次,通过数据融合还可以实现更多复杂以及高级的功能,如通过雷达与摄像头的融合,可以实现达到SAE定义的 L2级部分自动驾驶的交通拥堵辅助及智能巡航辅助功能。通过引入更多的传感器(四个角雷达)还可实现在驾驶员监控下的自动变道。而通过摄像头数据与导航地图数据的融合,则可以实现更为复杂的速度辅助功能。
总而言之,自动驾驶对于传感器数据融合提出的要求,不仅仅是准确和可靠,而同时是尽可能保留更多的原始环境信息,以帮助决策系统在对周边环境分析时做出更为优化的路径或决定。