分割性能超SOTA 6.2%!最新多模态地图构建BEV特征融合网络MapFusion

来源:深蓝AI

添加小助理:cv3d001,备注:方向+学校/公司+昵称,拉你入群。文末附3D视觉行业细分群。

扫描下方二维码,加入「3D视觉从入门到精通」知识星球(点开有惊喜),星球内凝聚了众多3D视觉实战问题,以及各个模块的学习资料:近20门秘制视频课程、最新顶会论文、计算机视觉书籍、优质3D视觉算法源码等。想要入门3D视觉、做项目、搞科研,欢迎扫码加入!

9e1257d840e8def6c9a13c2f68c32d21.jpeg

导读

自动驾驶系统包括感知、预测、决策、规划等不同的功能模块。对于其中的自动驾驶规划模块而言,要想实现准确安全的路径规划,就需要利用自动驾驶车辆上配置的传感器采集周围的环境信息构建地图。

本文介绍了MapFusion:一种用于多模态地图构建的新型BEV特征融合网络。

论文标题:MapFusion: A Novel BEV Feature Fusion Network for Multi-modal Map Construction

论文作者:Xiaoshuai Hao, Yunfeng Diao, Mengchuan Wei, Yifan Yang, Peng Hao, Rong Yin, Hui Zhang, Weiming Li, Shu Zhao, Yu Liu

论文地址:https://arxiv.org/abs/2502.04377    

9124c1ee305057e34871a13e8dd11eac.png

▲图1| 自动驾驶系统中地图构建任务示意图


图1展示了高精地图(HD Map)与地图分割(Map Segmentation)两类地图构建任务示意图。

现有的地图构建算法根据所使用的传感器数据进行划分,大体可以分成三种。分别是基于纯视觉的、基于纯激光雷达的以及基于相机和激光雷达融合的。在这三类方法当中,由于多模态融合算法可以充分利用不同模态数据之间的信息互补优势,其性能明显高于其他两类单模态的地图构建算法。

近年来,学术界已经提出了不少采用多模态的地图构建算法,比如,X-Align采用基于元素相加的方式进行多模态BEV特征的融合过程;BEVFusion采用两种模态加权平均的BEV特征融合方式;HDMapNet采用两种不同模态通道拼接的方式完成BEV特征的融合。尽管上述融合方式取得了不错的性能,但是这些方法通常忽略了不同模态特征之间的交互过程,影响了最终的地图构建效果。

在本文中,提出了跨模态交互变换器(CIT)模块,通过采用自注意力的方式实现了两种模态BEV特征之间的更加有效交互。同时,文中还进一步提出了双向动态融合(DDF)模块实现自适应的从不同模态之间选择有价值的信息构建最终的BEV融合特征。

本文的主要贡献总结如下:

  • 提出了一种名为MapFusion的多模态地图构建算法,实现对于不同模态之间的更加高效的交互和集成,提高最终的高精地图和地图分割任务的效果。

  • 为了解决视觉和点云模态语义特征不对齐问题,设计了名为跨模态交互变换器模块,通过自注意力的方式实现两类模态特征的有效交互。

  • 为了更好的解决两类模态的特征融合问题,提出了名为双向动态融合模块,自适应的从两类特征中选择有价值的信息完成融合特征的构建。

  • 大量实验表明,提出的MapFusion算法模型高于nuScenes数据集中高精地图和BEV地图分割任务的SOTA算法3.6%和6.2%

9bcb067c268688cc199387f5d356c008.png

MapFusion算法模型的网络结构如图2所示。具体而言,给定传感器采集的环视图像和点云数据,分别利用2D编码器和3D编码器完成各自模态的特征提取和BEV特征构建;然后将两个模态的BEV特征喂入提出的跨模态交互变换器中实现两类特征的交互,接下来利用双向动态融合模块实现两类特征的融合,最后接Map Decoder输出地图的构建结果。

0b6350f2aeb7f907b1d9cbe1597f7fd8.jpeg

▲图2| MapFusion算法模型的整体框架图

■ 1.1.  跨模态交互变换器(CIT)

在上文中提到,由于不同模态之间存在语义不对齐问题,本文采用了跨模态交互变换器来缓解这一问题的发生。具体而言,CIT模块的整体流程可以总结为以下几步。

1.将相机分支和雷达分支输出的BEV特征进行展平,并按照矩阵的顺序进行排列,从而得到和。

2.为了能够让不同模态的token在训练的过程中进行区分,本文添加了PE位置编码。

3.由于跨模态交互变换器采用了Transformer中自注意力的思想,所以将添加了位置编码后的多模态数据利用线性层进行转换,得到矩阵。

4.按照Transformer中自注意力的计算公式,计算 之间的相似性矩阵,最终与   进行加权;同时为了获得来自不同位置的子空间的多种复杂注意力关系,本文也采用了多头注意力的计算方式完成自注意力部分的计算。

5.最后对上一步得到的多头注意力输出结果采用非线性变换的方式得到输出特征 。这一步得到的输出特征会被转换为和用于后续的特征融合。

■ 1.2.  双向动态融合模块(DDF)

本文提出了双向动态融合模块实现多模态特征的融合。与其他主流的特征融合方法相比,提出的双向动态融合模块可以自适应的从两种不同的模态中选取有价值的特征信息来完成最终多模态融合特征的构建。提出的方法与其他主流融合方法的对比如图3所示。

7285c4084a28e6598d5fb4edad630ba5.png

▲图3| 不同特征融合方案与本文提出的双向动态特征融合模块区别示意图


具体而言,本文提出的双向动态融合模块的输入是视觉和激光雷达的多模态特征。为了生成有意义的融合权重,本文将两类模态的特征进行加和并实现空间特征的聚合,从而得到相应的加权系数。其中代表sigmoid激活函数,代表线性层。

为了实现自适应的模态加权过程,从不同模态特征中选择有价值的信息,本文将公式(4)中的得到的权重与两类模态进行加权,并将二者加权后的特征进行通道维度的拼接,然后采用卷积实现降维减少计算量。

最终融合后的特征将会输入到模块中完成地图的构建任务。

cbd2606599c16293c4a7f31181686847.png

本文研究在nuScenes和Argoverse2两类自动驾驶数据集上进行了实验分析。在高精地图构建任务中,整体的实验设置遵循MapTR模型的配置方案。在地图分割任务中,整体实验设置遵循BEVFusion的配置方案。

图4和图5分别展示了MapFusion在nuScenes和Argoverse2数据集上高精地图构建任务与其他算法模型的比较结果。通过结果可以看出,MapFusion算法模型在两个数据集上均实现了最佳的结果。

b90bf1c281d1a38544db436a79136d02.png

▲图4| 不同算法模型高精地图构建任务在nuScenes数据集上的对比

ece9d0b414ba81f1962e7e7973a3d639.png

▲图5| 不同算法模型高精地图构建任务在Argoverse2数据集上的对比


图6和图7展示了MapFusion在nuScenes和Argoverse2数据集上地图构建任务与其他算法模型的比较结果。通过结果可以看出,无论是哪类数据集,MapFusion均展现出了最佳的性能指标

db9cdc60a52e949489b6661559c28a2d.png

▲图6| 不同算法模型地图分割任务在nuScenes数据集上的对比

5cdc44e1bf0e0c10efa9321cc0bb3afc.png

▲图7| 不同算法模型地图分割任务在Argoverse2数据集上的对比


论文中还通过消融实验来评估提出的跨模态交互变换器和双向动态融合模块的有效性,通过图8的实验结果证明了两类模块都可以提升模型的最终表现性能。


793e23f312a16b6d6e821f3ee2013780.png

▲图8| DDF和CIT模块的消融对比实验


此外,论文为了更加直观的展示所提出的两个创新点对于高精地图构建和地图分割任务的贡献,对相关任务的结果进行了可视化分析,如图9和图10所示,进一步证明了DDF和CIT模块的性能。

aea9a85f385bb07a9bf75bda98e912db.png

▲图9| DDF和CIT模块在地图分割任务上的效果可视化图

e3831c77ca76af2978ad30f1303220a2.png

▲图10| DDF和CIT模块在高精地图构建任务上的效果可视化图

7b0fa578add4b750f88a3d6e35006746.png

本文主要聚焦于相机-激光雷达多模态的地图构建任务,提出了一种新颖的多模态地图构建算法 MapFusion。为了缓解两类不同模态特征之间的语义不对齐问题,提出了跨模态交互变换器模块,通过自注意力的方式达到有效交互的目的。

此外,本文还提出了双向动态融合模块实现自适应的选择不同模态特征的有效信息,构建更加精准的多模态融合特征。在nuScenes和Argoverse2数据集上的大量实验表明,提出的MapFusion在高精地图构建和地图分割任务上均实现了最佳的表现性能。  

Ref:

MapFusion: A Novel BEV Feature Fusion Network for Multi-modal Map Construction

译|Flincis

审核|apr

本文仅做学术分享,如有侵权,请联系删文。

b5c14c5c04710f706fa8139906f3e165.jpeg

db7f090c9fd207f28badc7aea96c35d3.jpeg

3D视觉交流群,成立啦!

目前我们已经建立了3D视觉方向多个社群,包括2D计算机视觉、最前沿、工业3D视觉、SLAM、自动驾驶、三维重建、无人机等方向,细分群包括:

工业3D视觉:相机标定、立体匹配、三维点云、结构光、机械臂抓取、缺陷检测、6D位姿估计、相位偏折术、Halcon、摄影测量、阵列相机、光度立体视觉等。

SLAM:视觉SLAM、激光SLAM、语义SLAM、滤波算法、多传感器融合、多传感器标定、动态SLAM、MOT SLAM、NeRF SLAM、机器人导航等。

自动驾驶:深度估计、Transformer、毫米波|激光雷达|视觉摄像头传感器、多传感器标定、多传感器融合、3D目标检测、路径规划、轨迹预测、3D点云分割、模型部署、车道线检测、Occupancy、目标跟踪等。

三维重建:3DGS、NeRF、多视图几何、OpenMVS、MVSNet、colmap、纹理贴图等

无人机:四旋翼建模、无人机飞控等

2D计算机视觉:图像分类/分割、目标/检测、医学影像、GAN、OCR、2D缺陷检测、遥感测绘、超分辨率、人脸检测、行为识别、模型量化剪枝、迁移学习、人体姿态估计等

最前沿:具身智能、大模型、Mamba、扩散模型、图像/视频生成等

除了这些,还有求职硬件选型视觉产品落地、产品、行业新闻等交流群

添加小助理: cv3d001,备注:研究方向+学校/公司+昵称(如3D点云+清华+小草莓), 拉你入群。

b12c1616b4586edceb6b2bb51a6175dd.jpeg
▲长按扫码添加助理:cv3d001
3D视觉工坊知识星球

「3D视觉从入门到精通」知识星球(点开有惊喜),已沉淀6年,星球内资料包括:秘制视频课程近20门(包括结构光三维重建、相机标定、SLAM、深度估计、3D目标检测、3DGS顶会带读课程、三维点云等)、项目对接3D视觉学习路线总结最新顶会论文&代码3D视觉行业最新模组3D视觉优质源码汇总书籍推荐编程基础&学习工具实战项目&作业求职招聘&面经&面试题等等。欢迎加入3D视觉从入门到精通知识星球,一起学习进步。

34507731613f9bdcdc05b2b080175e17.jpeg

▲长按扫码加入星球
3D视觉工坊官网:www.3dcver.com

卡尔曼滤波、大模型、扩散模型、具身智能、3DGS、NeRF结构光、相位偏折术、机械臂抓取、点云实战、Open3D、缺陷检测、BEV感知、Occupancy、Transformer、模型部署、3D目标检测、深度估计、多传感器标定、规划与控制、无人机仿真C++、三维视觉python、dToF、相机标定、ROS2机器人控制规划、LeGo-LAOM、多模态融合SLAM、LOAM-SLAM、室内室外SLAM、VINS-Fusion、ORB-SLAM3、MVSNet三维重建、colmap、线面结构光、硬件结构光扫描仪等。

29bbd8973a2b8f000d0cd01f1ad1f865.jpeg
▲ 长按扫码学习3D视觉精品课程

3D视觉模组选型:www.3dcver.com

c0f0f34a4d9a963095d9cf6ab2bf32ec.png

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

3D视觉科技前沿进展日日相见 ~ 


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值