激光雷达和相机感知融合简介

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达13c392b68f1c6724e4803c8945c68795.jpeg

总的来说,自动驾驶的四大核心技术,分别是环境感知、精确定位、路径规划、线控执行。由于环境感知和精确定位都需应用多个传感器,传感器融合技术正是归类于这两大核心技术的。

作者丨十点雨@知乎

链接丨https://zhuanlan.zhihu.com/p/446284775

本文介绍激光雷达和相机融合的两种方法:

前融合:融合原始数据(点云和像素/目标框)。

后融合:融合目标框。

1 前融合

前融合一般指融合原始数据,最容易、最普遍的方式是将点云投影到图像。然后检查点云是否属于图像中检测的2D目标框。流程如下:

639de5c0d76b04b15e903bf6a1e2e313.jpeg

1.1 点云投影

三步:

·将3D激光雷达点转换为齐次坐标 

·将点云变换到图像坐标系(LiDAR-Camera外参)

·透视投影到图像平面 (相机内参)

c2def50cd9d9820153993d78a89029ef.jpeg1.2 图像目标检测

一般使用YOLO系列算法。可以参考:Introduction to YOLOv4: Research review(https://www.thinkautonomous.ai/blog/?p=introduction-to-yolov4-research-review)

1.3 ROI匹配

ROI (Region Of Interest)匹配即融合目标边界框内的数据。这一步的输出:

·对于每个2D边界框,图像检测提供类别。

·对于每个LiDAR投影点,我们有准确的距离。

因此,融合目标语义类别和空间位置就完善了。这一步的重点是如何融合目标边界框内的投影点,作为目标位置:求平均,中值,中心点,最近点?

另外,图像目标框往往比真实目标大一些,目标边界框内投影点云可能不属于真实目标(比如可能属于背景,或附近目标)。针对这个问题,采用图像分割,可以更准确地匹配投影点和像素。

下图箭头处显示了投影点在目标框内,但不属于目标框对应的车辆,而是前方车辆的点云。

d02f20454434c3238aaccf4e41c0c5a4.jpeg 2 后融合

后融合是融合各个传感器独立的检测结果,有两种融合思路:

·2D融合:图像2D检测,点云3D检测投影到图像生成的2D检测。如下图:

f5ef9375213b60e6f6805600433ebabb.jpeg

·3D融合:图像3D检测,点云3D检测。流程如下:

00844a5eefd98d1d10c9aa150d25a6c4.jpeg

下文详细介绍下3D融合的思路。

2.1 点云3D目标检测

·传统方法:聚类,L-shape fitting等

·深度学习方法:centerpoint等

2.2 图像3D目标检测

单目3D目标检测,需要知道投影参数(相机内参,标定外参),并使用深度学习。知道目标的真实大小和朝向也有助于得到目标的准确边界框。

分享一篇单目3D检测论文: 3D Bounding Box Estimation Using Deep Learning and Geometry(https://arxiv.org/pdf/1612.00496.pdf)

8f630e2c10eed1e9cf3507d228e9b730.jpeg

2.3 IOU匹配

IOU即Intersection Over Union, 描述两个边界框的重合程度。

2.3.1 空域上的IOU匹配

匹配就是看图像3D边界框和点云3D边界框是否重合(用IOU衡量),重合度高则是同一个目标。3D Iou--Net (2020)中的示例图像:

bdf7f7501b35b8b61ffd8bb52374d72f.jpeg

因此,我们可以在空域上将不同传感器的检测目标进行关联。

48e08dff339e80a36c9d03cca7f7aaf6.jpeg

这个过程在9 Types of Sensor Fusion Algorithms中(https://www.thinkautonomous.ai/blog/?p=9-types-of-sensor-fusion-algorithms),被定义为中级(middle-level)传感器融合。中级传感器融合和高级传感器融合的区别是,高级传感器融合包括跟踪。 

而为了时间跟踪,则需要时域上的数据关联。

2.3.2 时域上的IOU匹配

目标跟踪一般用卡尔曼滤波和匈牙利算法来关联时域上的目标,从而跨帧跟踪目标,甚至预测目标位置。

ff46e24e921164e20154efbcdb91d8a2.jpeg

跟踪3D边界框位置时,一般用IOU作为度量进行数据关联。当然也可以使用深度卷积特征来确保目标一致。我们称该过程为SORT (Simple Online Realtime Tracking), 或Deep SORT,如果使用深度卷积特征。 

时域上IOU匹配的原理与空域上类似:如果第一帧和第二帧的边界框重合,则说明两个目标是相同的。

既然我们可以在空域和时域上跟踪目标,那么也可以利用类似方法进行高级的传感器融合。

2.4 后融合总结

融合检测目标是中级的融合,需要空域上的IOU匹配;融合跟踪轨迹是高级的融合,需要时域上的IOU匹配(匹配度量),卡尔曼滤波(状态估计),匈牙利算法(数据关联)。

本文仅做学术分享,如有侵权,请联系删文。

 
 

好消息!

小白学视觉知识星球

开始面向外开放啦👇👇👇

 
 

907220e79bd3b738842a303af9ac2864.jpeg

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
  • 0
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值