RadSegNet: 一个稳定的雷达摄像头融合方法(2022最新)

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

点击进入→自动驾驶之心技术交流群

后台回复【数据集下载】获取计算机视觉近30种数据集!

arXiv论文“RadSegNet: A Reliable Approach to Radar Camera Fusion“,22年8月8日,来自UCSD的工作。

fa36e76d12af1885e6d1dc10d73bfb69.png

用于自动驾驶的感知系统在极端天气条件下难以表现出鲁棒性,因为主要传感器的激光雷达和摄像机等性能会下降。为了解决这个问题,摄像机-雷达融合系统为全天候可靠的高质量感知提供了机会。摄像机提供丰富的语义信息,而雷达可以在所有天气条件下克服遮挡工作。

当摄像机输入退化时,最先进的融合方法表现不佳,本质上导致失去全天候的可靠性。与这些方法相反,RadSegNet,用独立信息提取的设计理念,真正实现在所有条件下的感知可靠性,包括遮挡和恶劣天气。在基准Astyx数据集上开发并验证了提出的系统,并在RADIATE数据集上进一步验证。与最先进的方法相比,RadSegNet在Astyx数据集,平均精度得分提高27%,在RADIATE数据集,提高41.46%。


在良好的条件下,系统应能够使用来自摄像机的丰富纹理和语义信息,以及来自雷达的所有目标的深度和大小等有用信息,而在良好天气出现遮挡或远处目标或恶劣天气下的图像退化而导致摄像机不可靠的情况下,系统仍应能够可靠地使用雷达数据。

RadSegNet,主要通过两个设计原则来实现所需的功能。第一个原则是基于这样一种认识,即对于雷达,BEV表示法比透视图具有多个优势,尤其是在遮挡的情况下。因此,作为其核心,RadSegNet用雷达BEV表示进行检测,对雷达中存在的所有信息进行编码。接下来,注意到摄像头中丰富的纹理和语义信息主要用于清晰地识别场景中的目标。因此,从摄像机RGB图像中独立提取语义特征。

然而,将从摄像机提取的语义信息传播到雷达数据仍然是一项具有挑战性的任务,因为摄像机没有深度信息。为了克服这一挑战,RadSegNet创建一种语义点网格(SPG,semantic-point-grid)表示,将摄像机图像中的语义信息编码到雷达点云中。为了将语义与雷达点相关联,SPG查找每个雷达点的摄像头像素对应关系,而不是将摄像头图像投影到雷达BEV。因此,SPG编码从摄像机中提取信息,添加到雷达中,并在此增强的雷达表示上检测,这样提取所需的独立信息。

即使在摄像机输入不可靠的情况下,RadSegNet仍然可以用雷达数据可靠地工作。请注意,这些条件包括恶劣天气以及晴朗天气下的遮挡和远距离,在这种情况下,摄像机数据可能变得不可靠。

如图所示是摄像机输入增加人工雾时雷达摄像机融合架构的性能。AVOD融合作为基准方法(“Low-level sensor fusion network for 3d vehicle detection using radar range-azimuth heatmap and monocular image“. ACCV‘2020)显著恶化,而RadSegNet方法即使在雾中也能继续提供鲁棒的结果。蓝色盒是真值和红色盒是预测结果。

d41fc6777d17b3e2f881da8780b6f70d.png

如图所示是RadSegNet一览:利用来自SPG模块的编码来检测目标,编码由来自语义分割网络的语义特征以及基于雷达点的特征和占用网格生成。这些编码图被连接并通过边框检测网络。

dc86961e77b21c07d185929789e669ac.png


雷达用与激光雷达相同的反射飞行时间(ToF)分析来生成点,但工作波长不同。虽然激光雷达用纳米波长信号,由于表面散射,其分辨率非常高,但雷达用毫米波,其中反射功率分为镜面反射和漫射散射。原始雷达数据虽然密集,但包含背景热噪声或多径噪声。

雷达数据通常也会受到恒虚警率(CFAR)滤波的影响,从而产生轻量稀疏的点云输出。因此,雷达点云中的目标边缘定义不如激光雷达点云清晰。例如,在雷达点云中,源自墙壁的点群可能具有与源自汽车的点群相似的空间扩展。直接从雷达点云中学习任何基于形状的特征,想区分感兴趣的目标(汽车、行人等)和背景目标,这种效应使其具有挑战性。

然而,与此同时,由于毫米波段传输的因素,雷达还提供了以下独特的优势:a)比激光雷达提供更长的感知距离,因为波长更高的信号具有更低的自由空间功率衰减。这允许雷达波传播更长的距离。b) 能够看穿遮挡的车辆,因为其信号会从地面反弹,能够感知完全遮挡的车辆。c) 全天候传感器,因为毫米波的波长更大,能够在雾、雪和雨等不利条件下不受影响地穿透。

用于表示输入数据的视图对目标检测任务的深度学习体系结构的性能有重大影响。研究表明,只需将数据从透视摄像机视图转换为3D/BEV视图,即可获得性能提升。

这背后的原因是,在透视图中,存在深度的尺度多义以及遮挡造成的目标重叠。在2D透视图图像上进行2D卷积等局部计算,可以用同一内核处理不同深度的目标。这使目标检测任务更难学习。另一方面,BEV表示法能够在不同深度清晰地分离目标,在部分和完全遮挡目标的情况下具有明显优势。

BEV占用网格为了生成BEV表示,通过折叠高度维将雷达点投影到2-D平面上。然后将该平面离散为占用网格。每个网格元素是一个指示变量,如果它包含雷达点,则其值为1,否则表示为0。该BEV占用网格还保留无序点云点之间的空间关系,并以更结构化的格式存储雷达数据。

BEV占用网格为雷达提供了最佳表示,并为未排序的雷达点云提供了次序。然而,BEV网格也将传感空间离散为网格,从而消化细化边框所需的有用信息。为了保留这些信息,将基于点的特征作为附加通道添加到BEV网格中。具体来说,添加笛卡尔坐标、多普勒信息和强度信息作为附加特征。

为了对高度信息进行编码,将高度维度(y)分为7个不同的级别,并创建7个通道,每个高度bin一个通道,从而生成高度直方图。笛卡尔坐标(x,y,z)有助于细化预测的边框。n通道包含该网格元素中存在的点数。n的数值通常与表面积和反射功率成比例,这有助于细化边框。


先说摄像头语义特征。

摄像头图像中丰富的纹理和语义信息对于理解场景和识别场景中的目标非常有用。这一信息与雷达很好地互补,在雷达中,点云的不均匀性使得学习识别目标特征更加困难。在恶劣条件下保持可靠性的同时,用这种互补性质的关键点是,首先以场景语义的形式从摄像头图像中提取有用信息,然后用来增强从雷达获得的BEV表示。

与每个目标集的特征融合相比,该方法在两种模式的信息提取之间保持了清晰的分离,因此即使一个输入退化,也能可靠地执行。用鲁棒的预训练语义分割网络从场景中存在目标的摄像头图像中获得语义掩码。然而,仍然需要在不存在摄像头图像深度信息的情况下将该信息添加到雷达BEV表征中。

如何将语义添加到SPG呢?

将基于摄像头的语义与雷达点相关联,需要为语义分割网络的每个输出目标类创建单独图。这些图的大小与BEV占用网格相同,并做为语义特征通道。为了获得每个网格元素的语义特征通道值,首先将雷达点变换为摄像机坐标。接下来,在摄像头图像中找到距离该变换点最近的像素,并用该像素的语义分割输出作为SPG语义特征通道值。

如果多个雷达点属于同一网格元素,则对所有生成的语义通道值进行平均。这些特征通道包含从摄像机中提取的语义信息,有助于从雷达BEV占用网格中检测目标。它们有效地减少了雷达可能产生的误报预测,因为由于在雷达数据中固有的不均匀性,雷达在识别目标时可能会糊涂。

如图显示如何用雷达BEV网格对汽车类的语义特征进行编码的示例。

2e7fdc4ea2d514e56f82df8a644c2fb9.png

请注意,RadSegNet中用的摄像头融合形式没有过滤掉任何雷达点,同时更好地利用了两种模式带来的优势。这意味着,在基于摄像机的特征信息较少的情况下,场景中的所有目标对雷达仍然可见,从而防止性能大幅下降。来自摄像机的纹理和高分辨率信息被浓缩成语义特征,这有助于雷达的全天候、远距离和遮挡的鲁棒感知。


通过SPG编码生成的每个BEV图都被传递到深度神经网络中,用于特征提取和边框预测。对于主干特征提取,用带跳连接的编码器-解码器网络。在编码阶段用4级下采样层,每个阶段用3个卷积层来提取不同尺度的特征,然后在上采样阶段通过跳连接来组合所有中间特征生成最终的特征集。用基于锚点框(SSD)的检测架构,分类和回归头生成预测。分类头预测输出边框的置信度得分,回归头学习如何细化其维度。

图像分割网络用来自DeeplabV3+实现提供的预训练语义分割模型。在Cityscapes数据集上训练的ResNet-101模型进行语义分割任务。选择CenterFusion作为基线之一,一种基于透视图的摄像头-雷达融合方法。在这种方法中,创建雷达点云的特征图,并将其与相应的基于图像的特征图一起处理执行检测。另外一个是CenterNet,纯摄像机方法。CenterNet本质上是CenterFusion,没有相应的雷达数据。预训练的网络比在Astyx数据集上从头训练网络表现更好。

基于多视图聚合的基线方法是一个雷达R-A热图和摄像头融合的方法,用AVOD架构执行雷达-摄像头融合。称为AVOD融合,这也是传感器融合的SOTA方法。


实验结果如下:

6b7a609765a34ae2bd91bcd833b50d9f.png

06f5d0b7f52f833a60aca7c7cdf696b8.png

944cfe31995730314a06ac1083075bae.png

c9b9fc482a0cad86340d6d5edb99a797.png

430df3c03aafea07e94d540bf264332d.png

Astyx数据集结果

0595fa1917ed5827d43430124fe3d157.png

RADIATE 数据集结果

36ab7df643b6e50b97331b6545586f96.png

Astyx数据集结果

9a54ca81f006a5ec85fd54ad007fc073.png

Astyx数据集结果

d38fd3dfb3d94c5335f3a445a5cfdfb5.png

Astyx数据集结果

40ad518f83d249b54c086f1b0880d56c.png

Astyx数据集结果

7e0935589aeae3d1fca7fe0cb6cfc985.png

Astyx数据集结果

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D感知、多传感器融合、SLAM、高精地图、规划控制、AI模型部署落地等方向;

加入我们:自动驾驶之心技术交流群汇总!

自动驾驶之心【知识星球】

想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D感知、多传感器融合、目标跟踪)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球(三天内无条件退款),日常分享论文+代码,这里汇聚行业和学术界大佬,前沿技术方向尽在掌握中,期待交流!

0676dcb2b51e779f841ab72ed04b5608.jpeg

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值