港大最新 | OCBEV:以目标为中心的BEV Transformer如何构建?

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

今天自动驾驶之心很荣幸邀请到香港大学、上海人工智能实验室的戚张扬、王佳琦等人分享BEV感知的最新算法—OCBEV,如果您有相关工作需要分享,请在文末联系我们!

>>点击进入→自动驾驶之心【BEV感知】技术交流群

论文作者 | 戚张扬 王佳琦 吴虓杨 赵恒爽

编辑 | 自动驾驶之心

c6d112922d194d7ca2f48d7c3c58a0d2.png

大家好,非常开心能够来到自动驾驶之心分享我们最新的BEV工作,这项工作是我们和上海人工智能实验室联合出品的,今天我们将会从工作设计的动机及优化思路以及后续的实验展开详解。

本文研究的自动驾驶领域中的多视图3D目标检测,用的是目前较为先进的基于鸟瞰图视角(Bird's-Eye-View (BEV))的范式。在鸟瞰图(BEV)的视角下,可以避免2D图片中的遮挡问题,并且可以和地图相结合,展开多种下游任务(如:车道线检测)。目前建立BEV的方法有自底向上的做法即由多视角图片及其深度信息构建视锥最终得到BEV。而更好的方法是自顶向下的,预先定义BEV空间初始化特征,在通过Transformer与每个图像特征进行交互,最终得到BEV特征。类似于BEVFormer。

d9f59ea9d74fdd9bfb71d08a514d9e47.png

在构建BEV的过程中,有两个关键的点:一个是如何从历史的BEV特征中获取信息,一个是如何使得BEV特征进行与多视角的图片进行交互。即从时间和空间的角度来得到丰富BEV特征的信息。之前的方法都是将BEV特征视作一个整体去进行对齐操作。这里存在一个问题,就是没有考虑到室外场景是稀疏的,并且其中的汽车等交通工具是在高速移动中的。经过Encoder得到的BEV特征,还需要经过Decoder得到最终的结果。这里的Decoder大多采用DETR的范式。这里的queries也是预先定义的,需要从BEV稀疏的特征中学习最终的目标检测结果。同样是忽略了移动中的前景物体的提示。总结下,现有的自顶向下基于Transformer鸟瞰图视角的多视角图片3D目标检测有如下问题:

  1. 在与历史BEV信息融合的过程中,只考虑了整体层面将BEV进行对齐,忽略了场景中稀疏的高速移动的前景物体。

  2. 在从BEV空间通过Transformer与2D图片进行交互的过程中,在高度方向,采用全局高度均匀采样,使得较多3D参考点投影到了2D的图像上的背景部分。

  3. 对于DETR范式Decoder,使用预先定义的queries和整个BEV特征进行Hungarian匹配的难度较大。

这篇论文聚焦与从移动物体前景的角度来解决上述的三个问题。如图所示,与BEVFormer相比,我们进行了三点改进:

  1. 我们在时间空间使用物体时间维度对齐融合(Object Aligned Temporal Fusion), 整体上会根据载具的Ego-motion和历史的BEV特征融合。同时也会使用对齐其中高速移动的物体(Object-motion)。

  2. 对于空间上与2D图像的互动,我们针对3D参考点的高度,提出了自适应的一个高度范围,这个范围内包含了大部分的前景物体。

  3. 我们在Encoder后面添加一个heatmap作为监督,将置信度较高的Queries作为位置编码输入到Decoder中,即给予物体位置信息的提示。

我们的方法

Overall Architecture

0cca72e18a380df5c449e087bb2acc50.png

我们的整体结构如图2所示。

  1. 我们首先对预定义的BEV Queries通过Encoder,我们引入了目标对齐的时间融合,考虑了背景和移动物体,通过Ego-Motion和Object-Motion进行时间融合,并使用Transformer在融合后的BEV特征之间进行交互。

  2. 在这之后对于空间信息,我们使用基于BEVFormer的空间Cross-Attention的面向物体的多视图采样方法,预测前景物体区域内的自适应局部高度,并在2D图像特征上进行投影,形成一个移动物体密集分布的条形区域。

  3. 在Encoder后,我们构建了目标信息增强,包括预测物体中心性的Heatmap,并将高置信度位置替换掉Decoder中部分预定义的Queries来提供位置提示。经过Decoder后,我们使用一个目标检测头来预测最终结果。

Object Aligned Temporal Fusion

587e663badc265f725eaed93b6c4f3d9.png

我们引入了一种名为“Object Aligned Temporal Fusion(目标对齐的时间融合)”的方法,旨在增强基于BEV(鸟瞰图)的目标检测器中的时间信息建模,以更好地处理复杂和动态的自动驾驶场景。如图3所示,方法涵盖了两个关键的时间融合步骤,分别是Ego-Motion(自我运动)时间融合和Object-Motion(物体运动)时间融合,从而能够更全面、更有效地捕捉时间信息。

2146c5fe1a6c797f17958362ec17f0d0.png

对于Object-Motion(物体运动)时间融合,如图3右图所示。我们

fb9b78f5b5339d330184c1f48e9fbeeb.png

总结一下:

  • Ego-motion Temporal Fusion(自我运动时间融合):通过对BEV特征进行双向变换,我们能够将当前时间戳的查询特征与先前时间戳的特征对齐。这种方法捕捉了车辆主体的自我运动信息,有助于更好地模拟驾驶场景。

  • Object-motion Temporal Fusion(物体运动时间融合):在处理移动物体方面,我们预测了物体的运动速度,并在当前时间戳上计算其预测位置。通过将预测位置与先前时间戳上的对应位置对齐,我们能够更好地跟踪移动物体的位置变化,捕捉动态场景中的物体运动特征。

Object Focused Multi-View Sampling

在对时间的对齐之后,是在空间层面上完成BEV特征和2D图像特征的交互。这种交互同样基于Deformable DETR进行的。首先BEV特征作为queries,在3D空间中定义参考点,将它们投影到2D图像特征得到key和value。3D参考点的xy坐标是BEV query的覆盖区域中心,而z坐标是在一个全局高度范围内进行平均采样。(例如对于nuscenes数据集,这个高度范围为-3m到5m)

  1. Object Focused Multi-View Sampling来预测自适应的局部高度范围,以包含大多数前景物体。

  2. 我们定义一个局部高度范围(例如对于nuscenes数据集,这个高度范围为-2m到2m),这个局部范围内包含了大多数的物体。

  3. 在这个局部高度范围的基础上,我们提出了一个自适应高度范围,以适应其余在局部高度范围之外的物体。让采样点的范围可以动态调整。

Object Informed Query Enhancement

3a3ed5b492c45dc0858d5493c5e0c6ef.png

在经过Encoder之后的Encoded BEV特征。我们将使用Decoder解码。图4左侧为我们显示了传统的Decoder,按照deformable DETR的方式,将Queries分为内容和位置embeddings。这里内容和位置embeddings均是预先定义的。为了能让Encoder输出向Decoder传递位置提示,以增强位置信息,OCBEV的结构如图4右所示:

  1. 我们在Encoder输出后添加了一个heatmap监督。引入了物体中心度的概念,用于表示对象的位置信息,通过2D高斯分布表示,并且通过二进制交叉熵损失对物体中心度进行训练。

  2. 我们使用heatmap中高置信度位置的BEV特征来部分替换预定义的查询。

  3. 我们只替换部分的位置embeddings,所有内容部分的embeddings我们都不进行替换。

实验

主要实验

df60662057588af7e41084955e1ee315.png
  1. 在 nuScenes 验证集上,将我们的实验结果与其他基于视觉的3D检测方法进行比较,尤其是基于查询的视觉方法。与当前的最先进查询方法 BEVFormer 相比,OCBEV 在验证集上的性能超过1.5个点。此外,OCBEV 在与相同主干网络和训练进度的情况下,比 DETR4D 高出2.3个点,比 PETRv2 高出0.8个点。

  2. 此外,OCBEV 的收敛速度比现有方法更快。在仅有一半的训练进度(12个epoch)下,OCBEV 的 NDS 比 BEVFormer 的24个epoch结果高出0.6个点。

  3. 所提出的面向对象的模块的优势还在运动学指标中得到体现。基于运动状态的度量,如方向(mAOE:33.9%)和速度(mAVE:33.3% 和 34.2%),在所有现有方法中优于 BEVFormer,在平移(mATE:62.9%)方面表现最佳。这证明我们的方法更加关注移动对象,可以自然地提高整体性能。

消融实验(Ablation Study)

5ef53be8062e15d1423d723ad858f60d.png

这里的实验baseline配置与主要结果中的配置不一样。我们的消融实验结果如下:

  1. Object Aligned Temporal Fusion的加入提升了NDS,全局对齐和物体自我运动对齐融合都产生了积极影响,最佳效果出现在30个物体上。

  2. Object Focused Multi-View Sampling表明,关注物体密集的局部高度范围可以获得显著的性能提升,自适应高度范围也有益于结果的改善。

  3. Object Informed Query Enhancement证明了热图监督和替换位置嵌入对于提升NDS具有积极作用,达到了41.4%和42.2%的NDS。

  4. 三个物体模块的组合分别在时间、空间和Decoder方面产生贡献,完整版本相较于基准线性能提升了7.7个百分点,达到了44.8%的NDS。

一些结论

基于Query的BEV模式兼具BEV感知能力和端到端训练的优势。大多数3D BEV检测器忽视场景中的移动对象,只是全局地利用时间和空间信息。在本研究中,我们提出了一种新颖的面向前景物体的自顶向下基于查询的BEV检测器,即OCBEV。其中包括三个模块:Object Aligned Temporal Fusion(目标对齐的时间融合)、Object Focused Multi-View Sampling(物体集中的多视角采样)和Object Informed Query Enhancement(物体信息增强的查询),分别专注于实例级别的时间建模、空间利用和Decoder增强。我们的结果在nuScenes基准测试上展现了其强大能力,并且收敛速度更快,因为仅需要一半的训练迭代次数就可以达到可比较的性能。                                                      

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合、多传感器标定、多传感器融合、多模态3D目标检测、点云3D目标检测、目标跟踪、Occupancy、cuda与TensorRT模型部署、协同感知、语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码学习)

636129309c98508b268d30674e21be97.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

c29ebe66a2b16294bb9956c752c88b9a.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

8c5c7fd65025f159b40435eb1ce9a52c.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

6793f518e18037a2db0a4613467d62fa.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值