MonoDETRNext:下一代准确高效的单目3D检测方法!

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>点击进入→自动驾驶之心单目3D技术交流群

论文作者 | 汽车人

编辑 | 自动驾驶之心

写在前面&笔者的个人理解

基于单目视觉的3D目标检测在各个领域都至关重要,但现有方法在准确性和计算效率方面面临着重大挑战。在2D检测和深度估计的成功策略的基础上,本文提出了MonoDETRNext,它寻求在精度和处理速度之间取得最佳平衡。我们的方法包括开发高效的混合视觉编码器,增强深度预测机制,以及引入创新的查询生成策略,并通过高级深度预测器进行增强。在MonoDETR的基础上,MonoDETRNext引入了两种变体:强调速度的MonoDETRNext-F和注重精度的MonoDETRNext-A。我们认为MonoDETRNext为单目3D物体检测建立了一个新的基准,并为未来的研究开辟了道路。我们进行了详尽的评估,证明了该模型相对于现有解决方案的优越性能。值得注意的是,与MonoDETR相比,MonoDETRNext-A在KITTI测试基准上的AP3D指标提高了4.60%,而MonoDETRNext-F提高了2.21%。此外,MonoDETRNext-F的计算效率略高于其前身。

总结来说,本文的主要贡献如下:

  • 提出了两种新的单目3D物体检测模型,即MonoDETRNext-F和MonoDETRNext-A,前者充分平衡了速度和精度,而后者强调了以精度为中心的目标。

  • 构建用于3D目标检测的混合视觉编码器,精通对单目3D目标检测任务至关重要的特征的有效提取,以及集成精细但轻便的深度估计模块,可视化以提高检测精度。

  • 利用迄今为止在2D目标检测范式中根深蒂固的方法,我们提出了一种有说服力的目标查询生成策略,该策略以精心设计的训练策略为基础,旨在有效优化模型性能,以适应单目3D目标检测的需求。

相关工作回顾

目前的3D目标检测方法通常可以分为两类:基于相机的方法和集成激光雷达和其他传感器的融合方法。

基于相机的方法可以根据输入视点的数量进一步分为单目(单视图)和多视图方法。单色探测器仅使用前向图像作为输入,以有限的2D信息处理更复杂的任务。多视图检测器同时对周围场景的图像进行编码,利用视点之间的关系来理解3D空间。另一方面,基于激光雷达和其他传感器集成的融合方法依赖于来自深度相机和激光雷达等设备的输入,这些设备提供了各种传感器数据类型的融合,包括图像和点云。因此,他们可以获得更丰富、更全面的深度信息。尽管成本较高,但这些方法通常在复杂环境中表现出更大的鲁棒性和准确性,因为它们可以利用多个传感器的优势并集成来自不同数据源的信息。

MonoDETR and other monocular 3D detection

MonoDETR是一种最先进的方法,它利用渲染传输从单个RGB图像预测深度图。与传统的单目深度估计方法相比,通过捕捉输入图像中的细微线索,MonoDETR实现了对不同照明条件的准确度和鲁棒性的提高。

近年来,已经提出了其他几种单目3D重建方法。例如,MonoDTR是一个深度学习模型,使用基于Transformer的架构从单个RGB图像预测深度图。虽然MonoDTR实现了高精度,但它需要额外的激光雷达数据来辅助训练。同时,CaDDN和Monorun不仅在训练过程中需要激光雷达数据,而且在推理过程中也需要数据。Autoshape将CAD数据集成到模型中,以增强受限制的3D提示。MonoDETR需要最小的2D-3D几何先验,并且不需要额外的注释。我们的MonoDETRNext继承了这一特性。

如MonoDLE、PGD和PackNet所示,替代方法集成了多尺度特征融合和注意力机制,用于深度图估计和误差分析,从而提高了性能。尽管这些方法具有很高的准确性,但会产生大量的计算成本,并需要大量的内存资源。相反,MonoDETR的特点是其重量轻、效率高。此外,MonoDETRNext-F在速度和效率方面超过了它,而MonoDETRNext-A表现出明显优越的性能。

Multi-view 3D object detection

为了从周围视图中联合提取特征,DETR3D最初采用一组3D目标查询,然后将其反向投影到多视图图像上以聚合特征。PETR系列进一步介绍了3D位置特征的生成,避免了不稳定的投影,并探索了前一帧的时间信息的优势。

或者,BEVFormer及其改进使用可学习的BEV查询生成BEV(鸟瞰图)特征,并引入用于视觉特征聚合的时空BEV转换器。随后的研究还研究了跨模态蒸馏和mask图像建模以提高性能。

LiDAR and multi-source information fusion 3D object detection

DeepFusion和PointPainting等方法代表了激光雷达点云数据与相机图像集成的显著进步,以促进三维空间环境中的精确目标检测。这种融合策略最佳地利用了不同传感器模态固有的协同效应,将空间深度线索与颜色纹理信息融合在一起,从而增强了检测结果的弹性和准确性。

BevFusion将BEVFormer的原理集成到融合范式中,促进了进一步的改进,最终提高了精度,MV2D和Futr3d中描述的示例模型证明了这一点。mmFusion最近的端点通过集成来自多个传感器(包括相机、激光雷达和雷达)的数据,扩展了融合方法的范围,从而在性能上取得了显著进步。

与此同时,该领域见证了大规模架构的出现,例如OMNI3D和GLEE,它们在3D目标检测任务中表现出了显著的效率。利用丰富的训练数据和以数十亿个或更多参数为特征的复杂模型架构,这些框架已经使用先进的优化算法进行了训练,从而提高了检测性能和精度。

方法

24a4825c1277b8dfce1b28fb116033f9.png

Efficient Hybrid Vision Encoder

根据[36]中的研究结果,可变形DETR将其49%的计算工作量分配给编码器,但该组件仅对平均精度(AP)指标贡献11%。

受RT-DETR架构的启发,我们设计了一种创新的高效混合视觉编码器,专门为3D目标检测任务量身定制。该编码器的特点是减少了计算占用,同时保持了特征提取的效率。如图2所示,我们提出的编码器包括两个集成元件:奇异编码器层和基于CNN的跨尺度特征集成模块(CFIM)。如图3所示,CFIM起着融合单元的作用,将形容词特征融合成新颖的表征。该融合过程如以下公式:

79864c0a6a770ac4a7e0ccff9379baeb.png

Accurate Depth Predictor

The Sequential Dilated Convolution (SDC)模块,利用膨胀卷积提取多尺度局部特征。与lite-mono类似,我们采用了一种分阶段的方法,通过插入具有不同膨胀率的多个连续膨胀卷积来有效地聚合多尺度上下文。

a497fd263d0c4fbcfa64636b724b9701.png ac0164cf6c0b0d4d79ca94a3776dba6c.png

The Regional-Global Feature Interaction (RGFI)的操作如下:给定输入特征图X,它被线性投影到查询、键和值中。交叉协方差注意力用于增强输入X:

27beebc60ad4bc3c1761b336ba145268.png 02d08158c76640fd986a375b16b0f0d1.png

Effective Query Generation and Overall Loss

cb8ce281ed9de4aaa4a16216d89b883d.png 75b08a7471528718dc2da98c25a213db.png

实验结果

17da12046717497f3f4f8fc1535d822e.png f605afa8b1681d3c1e2f0649c65993b5.png

结论和限制

结论:本文介绍了一种新的基于单目视觉的3D目标检测方法。利用2D检测领域的进步,我们提出了高效而精确的MonoDETRNext。在MonoDETR奠定的基础上,我们引入了两种变体:MonoDETRNext-F优先考虑速度,MonoDETRNext-A强调准确性。我们的方法包括开发高效的混合视觉编码器、增强深度预测机制以及改进目标查询生成。通过综合性能评估,我们确定了我们的模型相对于现有方法的优势。通过优化精度和计算效率,MonoDETRNext在单目3D目标检测方面树立了一个新的基准,促进了未来在各种现实世界场景中的研究和应用。

局限性:尽管MonoDETRNext在提高单目3D物体检测的准确性和计算效率方面取得了实质性进展,但仍存在某些局限性。由于单目视觉方法的固有限制,与采用多视图方法或传感器融合技术(如激光雷达与相机的集成)的方法相比,在精度和性能方面仍然存在显著差异。

参考

[1] MonoDETRNext: Next-generation Accurate and Efficient Monocular 3D Object Detection Method

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

eddc0d5f832551e0c24133b67086d5ef.png 网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内最大最专业,近3000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

1d3f348c65dfb9d7a8674ac1710f0859.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

c1d26c4597ac75fef3cd43f2b1b0dc11.jpeg

④【自动驾驶之心】全平台矩阵

d7df8dabf1bc7ebcd70dedbe5ac8b73a.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值