自动驾驶中一个老生常谈的话题就是如何对环境进行有效且实时的感知,不言而喻,利用尽可可能高效的传感器是一个必然的选择,随着自动驾驶研发等级的不断提升,其对于驾驶员的依赖程度越来越低,而对系统主控驾驶的依赖越来越高,这就使得对于自动驾驶“眼睛”的传感器数量、种类提出了越来越高的要求,对感知结果效能也提出了越来越高的要求。环境感知(包括传感器信号处理和数据融合)的任务是提供交通场景的通用且内部一致的图像,该图像在其他处理层中与特定功能的场景解释和行为决策相匹配。那么问题来了,如何对已经搭载的如此多的自动驾驶传感器进行有效的信息处理与数据融合就必然成为其后控制算法开发的一大难点。
本文将重点讲解如何对众多传感器进行数据融合分析。
多传感器架构定义
最为简单的融合方法架构是根据检测目标来区分,即对同一个物体进行检测的不同类型传感器进行数据分类,并利用融合算法制造代价函数cost选择不同类型传感器比对后,代价函数最小的传感器数据作为最终融合后的数据,而目标的最终属性则是综合了以上所有最优值(代价函数的最小值),该目标数据就是最优的数据组合体。由此,传感的有效融合可以实现了传感器感知能力最大化,扩大智能汽车感知范围和适用条件,同时可以消除了单一传感器漏检(物理特性、使用特性等原因)造成的风险。
此外,较为一般的传感器融合方法是通过区分传感器类型来进行融合的,比如前雷达与角雷达融合生成目标的速度、距离值,前雷达与激光雷达融合生成障碍物信息,前视摄像头、侧视摄像头、环视摄像头则融合生成目标类型、道路环境信息等。最终是生成需要的环境模型供自动驾驶做可行使区域探测。如下图通过可行使区域探测整体描述了传感器探测的目标类型及任务。
一般