为什么毫米波雷达无法识别静态物体?

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达efb04aa75644950d79a288e9de7726d7.jpeg

毫米波雷达传感器融合的困境

问题不在于毫米波无法识别静态物体,而是在于毫米波自己分辨率低,噪声多,无法正确识别静态物体的位置,也很难结合前方车道几何形态正确判断是否需要躲避。

其实不用大段文字介绍毫米波原理,以目前比较主流的自动驾驶公开数据集NuScenes的真实数据为例就可以非常容易的理解这个道理。NuScenes使用的是比较标准的一个前雷达,4个角雷达的5毫米波雷达配置,在绝大多数当前可以买到的带辅助驾驶功能的产品中,基本都用了类似配置。这里我们不谈4D毫米波,目前还比较少见,未来是否大规模应用也受成本,产能以及其他可选替代传感器的相对性价比影响,比较难以判断。

2dd97c45a60f656f7e338b8484e80eb6.png
NuScenes公开数据集使用的L4级别的传感器配置,其中包含5个毫米波雷达
d1dd2aadea9a5b6b1c2243e57d8da2e2.png
NuScenes数据集使用德国大陆公司的ARS 408毫米波雷达

找一个NuScens中的场景数据是如下这样的。

74c5de4cda814d04b0397874beac2f17.png
相机检测框可视化在图片上
9850f54c4fd99dce4c4e4aba1717961f.png
毫米波雷达数据点可视化在图片上
05880784839bcdc726585f0d8789dd09.png
激光雷达电云可视化在图片上

根据同一场景的三幅可视化图片可以发现,毫米波雷达在高度上是缺失的,而且目标点密度很低,远低于激光雷达,所有目标检测点是堆在一维线上的,由于毫米波雷达信息很少,一般在指导自动驾驶决策规划的之前要和视觉还有激光雷达进行融合。

OK,现在读文章的同学可以自己尝试下把上面视觉检测框和毫米波检测点进行一下关联,要知道人脑目前还是远远比AI算法更聪明,如果你们智商和我差不多,那么我没有信心准确对所有检测框和毫米波测量点进行观测。

那如果投影到自车坐标系下呢?

d793deeec8e2dcf8b6cded70b2967525.png
毫米波雷达检测点与视觉检测框可视化在自车坐标系
a32ff1cbadd2230cf8ad38eb9d75ca4a.png
激光雷达点云与视觉检测框可视化在自车坐标系

那么会发现,和Lidar不同,毫米波检测点位置并不准确,也非常稀疏,另外还有大量噪声,即使在自车坐标系下仍旧很难和视觉检测框正确关联。

那么如果人都无法百分百确定正确关联关系,算法也就更无法保证时刻关联正确了!!!

辅助驾驶功能对传感器融合错误的妥协

832c573b2b5f9f05b26695ac0488dbe5.png
Karpathy分享过的一个错误匹配导致幽灵刹车的案例

上图是前Tesla AI 视觉总监Andrej Karpathy再分享他们用视觉替代毫米波雷达的逻辑的时候举过的一个例子。

先讲下背景,因为要保持自车舒适以及对于危险的预判和保护性驾驶,所以一般在辅助驾驶功能时候前车大幅度减速时候,即使离自车比较远,自车也要做相应的减速操作,以减小后续急刹以及后续碰撞追尾风险。

所以这里就是因为毫米波高度上没有足够分辨率,当前车经过桥洞下时候,这时候分别属于前车和前方静止桥洞的毫米波检测被错误的匹配了视觉目标,由于毫米波雷达能够给出前车相对自车速度,那么这种情况下错误匹配成前车的桥洞点就会告知自车,前车突然刹停,这时候最合理的操作就是开始减速,造成所谓的“幽灵刹车”。

上面场景实际非常普遍,高速上有很多静止物体会触发毫米波回波形成检测点,比如桥洞,龙门架,地面的井盖,在前车经过这些静止物体的时候就很容易触发无匹配,从而造成幽灵刹车,严重甚至造成后车追尾。

为了减少幽灵刹车,车企只能选择降低对完全静止物体毫米波量测的置信度,因为毕竟是L2辅助驾驶,要求驾驶员时刻关注路况。这样当前方真的出现静止障碍物的时候,辅助驾驶就有可能忽略这一毫米波雷达检测,导致自车不制动了。这也是很多公司现在选择安装前向激光雷达,以及Tesla选择利用视觉Occupancy Network以及视觉物体速度加速度估计,来避免此类问题的原因。

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值