【论文笔记】基于深度卷积神经网络的传感器融合实现自主驾驶

论文标题:Enabling Efficient Deep Convolutional Neural Network-based Sensor Fusion for Autonomous Driving

论文链接:https://arxiv.org/abs/2202.11231

论文代码:

发表时间:2022年2月

本文基于数据融合架构 RoadSeg 的基础上进行改进,增加一个融合过滤器,本质上是一个1*1的卷积模块,旨在寻找两种不同图像数据的非线性关系,转换成同一种数据图像,进行融合,实现语义互补。

Abstract

自动驾驶需要准确的感知和安全的决策。为了实现这一目标,自动驾驶汽车现在配备了多个传感器(例如摄像头、激光雷达等),使它们能够通过融合来自不同传感模式的数据来利用互补的环境背景。 随着深度卷积神经网络(DCNN)的成功,DCNN之间的融合已被证明是一种有前途的策略,可以实现令人满意的感知精度。然而,现有的主流DCNN融合方案通过直接将在各个阶段从不同模态提取的特征图逐个元素地添加到一起来进行融合,没有考虑被融合的特征是否匹配。因此,我们首先提出了一个特征差异度量来定量测量被融合的特征图之间的特征差异程度。然后,我们提出融合过滤器作为一种特征匹配技术来解决特征不匹配问题。我们还提出了一种深层共享技术,该技术可以以更少的计算开销实现更高的准确性。再加上特征差异作为额外损失的帮助,我们提出的技术使DCNN能够从不同的模态中学习具有相似特征和互补视觉上下文的相应特征图,以实现更好的准确性。实验结果表明,我们提出的融合技术可以在 KITTI 数据集上以更少的计算资源需求实现更好的精度。

Personal Understanding

在自动驾驶领域,自动驾驶汽车的安全性取决于传感器感知结果的准确性。

因此提出从不同模态中,例如相机和激光雷达,采集的不同信息进行融合,从而实现信息互补,提供更好、更强大的感知性能。

本文使用两种不同模态分别为:RGB图像和深度图像(从激光雷达(LiDAR)采集的3D点云进行预处理),如图(a),(b)。

图(c)为分割结果,绿色代表可驾驶道路

由于不同模态的数据,通过预处理,得到的图像是有差异的,因此首先要寻找差异在哪里,并且进行校准。

作者提出两处创新:

1、Fusion-filter(融合过滤器),它学习要融合的特征图之间的特征匹配关系,以保证特征匹配

2、深层特征差异不明显,将 Fusion-filter 参数共享

Method

1、首先对于两种传感器采集的数据RGB和Depth进行预处理,

预处理使用方法是RoadSeg架构,就是简单的卷积、正则化、残差,架构如图:

这里提及一下RoadSeg架构 Fusion 使用的就是加法规则,

2、处理后的数据,只将Depth的特征进入Fusion-filter,输出后的特征与 RGB 的特征按元素进行相加操作,如图:

这里要重点讲一下Fusion-filter内部构造,其中就是卷积操作,作用在于寻找两种模态之间的关系,

原文如下:

Fusion-filter 旨在 Depth 的 Fmaps 通过与 Fusion-filter进行卷积来重建 Depth 新特征图,它能够从训练数据中学习从 Depth 到 RGB 特征图的匹配关系。本质就是非线性变换。

Fusion-filter的内核大小为 1x1,因为它仅旨在重组这两组特征图之间的映射关系。 

到此文章重点部分已经结束,下面文章作者进行优化改进

经过实验,发现层数加深,差异越小,因此提出,在深层中使用参数共享的方法,减少运算

中间黄色矩形框内的参数共享,对应深层中的 Fusion-filter,

并且考虑到,这两个特征去是基于两个不同的传感器的感知模式进行的提取,

所以在分层共享后的结果特征图上应用Auxiliary Weight Network(AWN)本质就是全连接层,寻找非线性关系。将两种模态的特征,转换成一种特征,最后输出特征向量Wf

 到此,作者构建四种使用 Fusion-filter 架构,如图:

实验结果如下:

城市标记道路 (UM)、城市多标记车道 (UMM) 和 城市无标记道路(UU)

观察看实验结果,四种架构各有优势,但本文对标的架构 RoadSeg 是2020年的作品,并非目前效果最优的架构。Fusion-filter 是否能冲击最优目前未知,

本实验仅使用了一块NVIDIA’s Quadro RTX 8000 GPU 完成实验。

  • 4
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
基于卷积神经网络的图像融合方法有多种。其中一种方法是使用完全卷积的孪生网络进行融合跟踪。这种方法使用了双重的孪生网络,分别处理可见光图像和红外图像。网络的backbone采用SiamFC网络,可见光部分的网络权值共享,红外部分的网络权值也共享。通过这种方式,可以实现可见光图像和红外图像的融合跟踪任务。\[1\] 另一种基于卷积神经网络的图像融合方法是使用生成对抗网络(GAN)进行热红外图像和可见图像的融合。这种方法通过建立一个生成器和鉴别器之间的对抗性博弈过程,生成器的目标是生成具有主要红外强度和附加可见梯度的融合图像,鉴别器的目标是使融合的图像在可见图像中有更多的细节。这样可以同时保持融合图像中的热辐射和可见图像中的纹理。\[3\] 这些基于卷积神经网络的图像融合方法在不同的应用领域都有广泛的应用,如多焦距图像融合、多模态医学图像融合、遥感图像融合等。它们通过利用卷积神经网络的特征提取和学习能力,可以有效地将不同类型的图像信息进行融合,提高图像的质量和信息量。\[2\] #### 引用[.reference_title] - *1* *3* [图像融合方法](https://blog.csdn.net/qq_45479499/article/details/109631489)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [基于卷积神经网络的像素级图像融合——硕士论文阅读笔记](https://blog.csdn.net/ZHANGWENJUAN1995/article/details/111835679)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^koosearch_v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来自γ星的赛亚人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值