gsensor 车辆碰撞算法_完整的自动驾驶传感器融合及目标筛选算法

0ef474452c1ed3c11be571aa57674f99.gif 54cac286d0a46d5602ed81f38c868c53.png 作者 |  Aimee 知圈 | 进“汽车操作系统社群”请加微信13636581676,备注系统

自动驾驶中一个老生常谈的话题就是如何对环境进行有效且实时的感知,不言而喻,利用尽可可能高效的传感器是一个必然的选择,随着自动驾驶研发等级的不断提升,其对于驾驶员的依赖程度越来越低,而对系统主控驾驶的依赖越来越高,这就使得对于自动驾驶“眼睛”的传感器数量、种类提出了越来越高的要求,对感知结果效能也提出了越来越高的要求。环境感知(包括传感器信号处理和数据融合)的任务是提供交通场景的通用且内部一致的图像,该图像在其他处理层中与特定功能的场景解释和行为决策相匹配。那么问题来了,如何对已经搭载的如此多的自动驾驶传感器进行有效的信息处理与数据融合就必然成为其后控制算法开发的一大难点。

本文将重点讲解如何对众多传感器进行数据融合分析

ee63cee3144d47a05403699325613331.png

多传感器架构定义

最为简单的融合方法架构是根据检测目标来区分,即对同一个物体进行检测的不同类型传感器进行数据分类,并利用融合算法制造代价函数cost选择不同类型传感器比对后,代价函数最小的传感器数据作为最终融合后的数据,而目标的最终属性则是综合了以上所有最优值(代价函数的最小值),该目标数据就是最优的数据组合体。由此,传感的有效融合可以实现了传感器感知能力最大化,扩大智能汽车感知范围和适用条件,同时可以消除了单一传感器漏检(物理特性、使用特性等原因)造成的风险。

1678d5e8f9a74d41a71db33c59e0e983.png

此外,较为一般的传感器融合方法是通过区分传感器类型来进行融合的,比如前雷达与角雷达融合生成目标的速度、距离值,前雷达与激光雷达融合生成障碍物信息,前视摄像头、侧视摄像头、环视摄像头则融合生成目标类型、道路环境信息等。最终是生成需要的环境模型供自动驾驶做可行使区域探测。如下图通过可行使区域探测整体描述了传感器探测的目标类型及任务。

一般

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值