【论文翻译】M3D-RPN:Monocular 3D Region Proposal Network for Object Detection

题目:M3D-RPN:Monocular 3D Region Proposal Network for Object Detection

机构:Michigan State University, East Lansing MI 

作者:Garrick Brazil, Xiaoming Liu 

时间:2019.7.13

代码: http://cvlab.cse.msu.edu/ project-m3d-rpn.html(官方)

           github: https://github.com/garrickbrazil/M3D-RPN


Abstract

       作者提出通过将单目3D检测问题重新定义为一个独立的3D区域建议网络。利用了2D和3D透视图的几何关系,允许3D框利用图像空间中生成的众所周知的强大卷积特性。为了帮助解决繁重的3D参数估计,我们进一步设计了深度感知卷积层,支持特定位置的特征开发,从而提高了3D场景的理解。与以往单目3D检测工作相比,我们的方法只包含所提出的3D区域建议网络,不依赖于外部网络、数据或多个阶段。M3D-RPN能够显著提高KITTI城市自主驾驶数据集中单目3D目标检测和鸟瞰任务的性能,同时有效地使用共享的多类模型。


1.Introduction

       目前最主要的3D检测方法【9,21,27,31,37】广泛依赖于昂贵的激光雷达传感器提供的稀疏深度数据作为输入。相比之下,由于缺乏深度信息,单目图像3D检测【4,5,24,36】要困难得多。因此基于LIDAR的方法和单目方法之间的性能差距仍然很大。

       以往单目3D检测工作都严重依赖于外部SOTA子网络,这些子网络分别负责点云生成【5】,语义分割【4】,2D检测【24】,或者深度估计【36】。这种方法的缺点是组件学习和系统复杂性的内在脱节。此外,依赖额外的子网络可能会引入持续的噪声,从而导致框架性能上受限。

       相比之下,作者提出了一种单个的端到端区域建议网络用于多类别3D目标检测(见图1)。2D和3D检测任务各自的目标是最终对一个对象的所有实例进行分类,而它们在定位目标的维数上是不同的。直观地说,我们期望能够利用2D检测的强大功能来指导和改进3D检测的性能,最好是在一个统一的框架内,而不是作为单独的组件。因此,作者重新定义了3D检测问题,使2D和3D空间都利用共享的锚点和分类目标。这样一来,可靠地对物体进行分类的角度来看,3D检测器的性能自然能够跟2D检测器媲美。因此,剩余的挑战被减少到相机坐标间内的3D定位了。   

       为了解决剩余的困难,作者提出三个关键的设计来改进3D估计。首先,提出构造3D锚点,使其在图像空间内发挥作用,使用每个锚点的3D参数的先验统计信息初始化所有锚点。因此,基于固定相机视角的一致性和2D尺度与3D深度的相关性,每个离散锚点在3D中具有很强的先验推理能力。其次,设计了新的深度感知卷积层,(图1的blue)能够学习空间感知的特征。传统上,卷积操作倾向于空间不变【18,19】,以便在任意图像位置检测对象。然而,虽然这是低阶特征的情况,但如果能够提高对深度的认知,并假设相对一致的相机场景几何的话,高阶特征具有提升的潜力。最后,在后优化算法中使用3D --> 2D投影一致性损失来优化方向估计\theta。使用2D边界框来帮助纠正异常的\theta估计值。总而言之,概括如下:

  • 利用共享的2D和3D检测空间,建立一个独立的单目3D区域建议网络(M3D-RPN),同时利用先验统计对每个3D参数进行强初始化。
  • 提出深度感知卷积来感知3D参数估计,从而使网络能学习更多的空间级高阶特征。
  • 提出一个简单的方向估计后优化算法,该算法使用3D投影和2D检测来改善\theta的估计。
  • 在城市KITTI benchmark上取得SOTA,用于单目鸟瞰视角和使用单个多类别网络的3D检测。

2.Related Work
2D Detection

本文框架建立在RPN的基础上,RPN是专门设计用来在2D和3D空间中工作的,并作为一个single-shot 多类别3D检测器。

LiDAR3DDetection:

激光雷达数据的使用已经被证明是SOTA的框架,用于城市场景的3D目标检测的基本输入。主流方法倾向于从激光雷达处理稀疏的点云或将点云投影到2D平面。虽然基于LIDAR的方法通常在各种3D任务中表现出色,但每种方法都依赖于从激光雷达点生成的深度信息的可用性,或者直接通过点云处理。因此,这类方法不适用于只有相机的应用,因为这是我们单目3D检测算法的主要目的。

Image-only 3D Detection: 

       由于缺乏可靠的深度信息,仅适用图像数据进行3D检测具有内在的挑战性。基于SOTA图像的3D检测方法【4,5,24,36】的一个共同特点是使用一系列子网络来辅助检测。例如,【5】中使用带有立体处理的SOTA深度预测来估计点云。然后,给定一个已知的相机投射矩阵,将3D长方体沿地平面详尽地放置,并根据近似点云在长方体区域的密度进行评分。作为后续,【4】通过结合语义分割,实例分割,位置,空间上下文和形状先验,将设计从stereo调整为单目,取代了点云密度策略,同时在地面上对proposal进行了详尽分类。

       最近研究中,【24】使用外部SOTA目标检测器生成2D proposal,然后在深度神经网络中处理裁剪后的proposal,以估计3D尺寸和方向。与本文工作类似,在后处理中利用投影到图像平面的2D框和3D框之间的关系来求解3D参数。然而,本文的模型直接直接预测3D参数,因此只有优化改善\theta,在实践中收敛于~8个迭代,而【24】为64迭代。【36】利用一个额外的网络来预测深度图,然后用深度图来估计类似LIDAR的点云。然后使用单目的2D RPN边界框对点云进行采样。最后,一个R-CNN分类器接收一个由点云和图像特征组成的向量输入,来估计3D框的参数。 (对比见下图)

       与此前工作相比,本文提出一个只用3D框训练的单一网络,而不是使用一组外部网络,数据源和由多个阶段组成的网络。之前的研究【4,5,24,36】使用外部网络作为其框架的一个组件,其中一些组件还需要外部数据进行训练。本文是第一个使用单目3D proposal网络(M3D-RPN)同时能生成2D和3Dproposal。理论上讲,本文是对以前工作的补充,可用于替代proposal生成阶段。综述对比见图2.


3.M3D-RPN 

本文框架由3个关键组件组成。首先,详细阐述了我们的多类3D区域建议网络。然后概述深度感知卷积网络和整体网络架构。最后,详细介绍了一个简单有效的后优化算法,用于提高3D->2D一致性。网络整体框架见图3.

我的理解是用DenseNet作为基础特征提取器,得到hxw维度的特征图,然后将该特征图分别送入两个分支,一个是全局特征抽取,一个是局部特征抽取,最后将两个分支的特征按照一定的权重进行结合。其中全局这块,用常规的3x3和1x1卷积作用于整张特征图,而局部这块,用不同的3x3核作用于不同的bin,这个bin见图3中横条,作者沿纵向将其划分了b个bin。

3.1.Formulation 

本文框架的核心基础是基于Faster R-CNN中首先提出的RPN原理。从高维度来看,区域建议网络充当滑动窗口检测器,扫描输入图像的每个空间位置,寻找匹配的一组预定义锚点模板对象。然后将匹配从离散锚点回归到估计对象的连续参数。

Anchor Definition: 

为了同时预测2D框和3D框,需要在各自维度空间定义锚点模板:[w,h]_2_Dz_P 和 [w,h,l,\theta ]_3_D 。 要放置锚点并定义完整的2D/3D框,必须指定共享的中心像素位置 [x,y]_P ,其中2D表示的参数按照像素坐标表示将相机坐标系下的3D中心位置 [x,y,z]_3_D 三维投影到给定已知投影矩阵 P 的图像中,将深度信息参数 z_P 进行编码

\theta _3_D代表观察视角。相当于相机坐标系下绕着Y轴旋转,观察角度考虑的是物体相对于相机视角的相对方位,而不是地面的鸟瞰图(BEV)。因此,在处理图像特征时,直观地估计视角更有意义。将剩余的3D维度 [w,h,l] 编码为相机坐标系中的给定值

均值统计每个z_P 和 [w,h,l,\theta ]_3_D 是预先为每个锚点单独计算的,它充当强先验信息来减轻3D参数估算的难度。具体而言,对每个锚点,统计那些与GT值在[w,h] 上的IOU超过0.5的匹配统计数据。因此,锚点表示离散的模板,其中3D先验可作为强的初始猜测,从而假设一个合理一致的场景几何。可视化锚点生成公式和预先计算的3D先验 见图4。

3D Detection: 

模型预测输出特征图中每个锚点的 c[t_x,t_y,t_w,t_h]_2_D[t_x,t_y,t_z]_P[t_w,t_h,t_l,t_\theta ]_3_D .设锚点个数为n_a (我的理解是特征图上每个像素的锚点个数), 类别个数为 n_c , hxw是特征图的分辨率。因此,输出框总数为n_b=w\times h\times n_a , 每个锚点分布在每个像素位置 [x,y]_P \in \mathbb{R}^w ^\times ^h , 第一个输出 c 表示维度为n_a \times n_c\times h\times w 的共享分类预测,其中彼此(每个类)的输出维度为 n_a \times h\times w 。  [t_x,t_y,t_w,t_h]_2_D 表示2D边界框转换,我们统称为 b_2_D 。 同【30】,边界框变换公式如下:

其中x_P 和 y_P 表示每个框的空间中心位置。变换后的框 b_{2D}^{'} 定义为 [x,y,w,h]_{2D}^{'} , 以下7个输出表示投影中心变换 [t_x,t_y,t_z]_P , 尺度变换 [t_w,t_h,t_l]_3_D, 以及方向变换 t_{\theta _3_D} , 统称为 b_3_D 。 类似于2D,转换应用于带参数 [w,h]_2_D ,z_P[w,h,l,\theta ]_3_D 的锚点:

同理,b_{3D}^{'} 表示 [x,y,z]_{P}^{'} 和 [w,h,l,\theta]_{3D}^{'} 。 如前所述,作者估计投影的3D中心而不是相机坐标,以更好地处理基于图像空间的卷积特征。在推理过程中,利用公式(1)的逆变换,由得到的在图像空间中投影后的3D中心位置[x,y,z]_{P}^{'} 去计算其相机坐标 [x,y,z]_{3D}^{'}

Loss Definition: 

本文的网络损失函数是个多任务学习问题,由分类损失 L_c , 2D框回归框损失 L_{b_2_D}和3D框回归损失 L_{b_3_D} 构成。对于每个生成的框,我们检查是否存在与GT的IOU≥0.5。 如果存在的话,使用生成框的最佳匹配的GT来定义一个目标的类别索引 \tau,2D框 \hat{b}_2_D 和3D框  \hat{b}_3_D 。如果不存在的话, 目标类别索引为背景类, 忽视边界框回归。采用基于softmax的多项逻辑损失函数用于Lc

文中用负的逻辑损失来定义L_{b_2_D} , 主要是用于匹配的GT \hat{b}_2_D 和 变换后的b_{2D}^{'} 之间的IOU :

剩下的3D边界框参数每项都用Smooth L1回归损失来优化,其针对变换b_3_D  和GT变换 \hat{g}_3_D(该项利用\hat{b}_3_D 代入公式3求逆变换得到):

因此,整个多任务网络损失L ,包括正则化权重 λ1 和  λ2,定义如下:

3.2.Depth-aware Convolution

作者希望网络早期层的低阶特性能够合理共享,不受深度或目标尺度大小的影响。直观认为,当假设一个固定的相机视角下,与3D场景理解相关的高阶特征依赖于深度。因此,作者提出深度感知卷积作为提高区域建议网络中高阶特征空间感知的一种方法,如图3所示。

深度感知卷积层可以大致概括为规则的2D卷积,其中一组组离散深度可学习到非共享权重和特征(个人理解见图3中,不同bin中的权重是不同的,非共享的)。作者引入超参数 b ,其表示行级别的bin数量用于将特征图沿横向分为b个,每个bin都有特定的卷积核 k 。 实际上,深度感知的卷积核使网络能够为每个bin区域开发位置特定的特征和偏置值,理想情况下,利用城市场景中固定视角的几何一致性。例如,高级语义特征,编码一个用于检测汽车的轮子特征,在近深度是有用的,但在较远深度通常不行。类似地,作者直观希望与3D场景理解相关的特性与它们的行方向图像位置内在相关

使用深度感知卷积的一个明显缺点是,给定层的内存占用增加了b 倍。然而,无论卷积核是否共享,执行卷积的总理论FLOPS仍是一致的。作者在PyTorch中实现了深度感知卷积层,将一层L 展开到b个 padded的bin中,然后重新利用组卷机运算,在GPU上高效并行运行。

3.3.Network Architecture 

本文的网络架构的主干网络(backbone)是建立在DenseNet-121上的。为了使网络步长(尺寸较输入缩减倍数)保持在16,作者删除了最后一个池化层,然后将最后一个DenseBlock中的每个卷积层膨胀2倍,以获得更大的感受野。在backbone的末端连接两条并行分支。第一个分支使用常规的卷积,其卷积核是在整个空间作用的,称为全局卷积。第二个分支使用深度感知卷积(depth-aware convolution),称为局部卷积。对于每条分支,都附加了一个proposal特征提取层,利用其各自的卷积运算来生成全局特征F_{global} 和局部特征 F_{local} . 每个特征提取层使用一个带padding为1的3x3卷积核,然后接Relu非线性激活,生成512个特征图。然后在每个特征图F上连出13个输出(论文中说是13个,我的理解是除了列举出的12个,是不是还有方位角θ),对应为:c[t_x,t_y,t_w,t_h]_2_D[t_x,t_y,t_z]_P ,  [t_w,t_h,t_l,t_\theta ]_3_D  .每个输出再接一个1x1的卷积核,统称为 O_{global} 和 O_{local} , 为了利用depth-aware和空间不变的优点(其实就是利用两个分支各自的优势),作者对每个输出做了\alpha 加权(包括sigmoid处理了),这个α 是学习得到的,并为每个输出作了1至13的索引,如下:

3.4.Post 3D→2D Optimization 

作者用一种简单而有效的后处理算法(见算法流程1)来对方向参数 θ 进行优化。

 

提出的优化算法将2D和3D的估计框 b_{2D}^{'}[x,y,z]_{P}^{'}[w,h,l,\theta ]_{3D}^{'} ,以及 步长 \sigma (看算法流程图,我的理解是用来更新θ的) ,程序while循环终止参数 \beta , 衰减系数\gamma (用来更新\sigma的) 这些参数作为 θ 优化算法的输入。算法的迭代步骤是通过将 3D框的投影和2D的估计框 b_{2D}^{'} 作 L_1 loss, 并不断调整θ值。3D->2D 投影定义如下:

其中 \phi 表示 轴 [x,y,z]的索引。用3D框投影后的2D框参数 [x_{min},y_{min},x_{max},y_{max}] ,和原来的2D框估计 b_{2D}^{'} 来 计算L_1 loss, 当在 θ±σ 范围内loss没有更新,然后就用衰减因子γ 来改变 步长 \sigma, 当 σ > β时 反复执行。

3.5.Implementation Details 

       为了防止局部特征对图像区域过度拟合,使用预先训练的全局权重来初始化分支中的局部特征提取层。本例中,每个阶段都经过50k次迭代训练。作者期望更高程度的数据增强或者实行一个bin个数迭代机制,例如,将bin个数 b=2^i , i=0,...,log_2(b_{final}), 这么做可以以更复杂的超参数为代价使得训练过程更加容易。

       作者使用0.004的学习率和0.9的幂次、batchsize为2,权重衰减系数0.9, 设置λ1 =λ2 = 1, 所有图像缩放到像素高为512,深度感知卷积层使用bin个数b=32, 以及12个锚点尺寸,从30到400,尺寸变化遵循公式:30\cdot 1.265^i , 其中i=0,...,11,锚点框纵横比为[0.5, 1.0, 1.5], 如此定义了多种类别检测所学的36个锚点框(12种尺度 x 3种比例)。使用训练数据集中的模板来学习3D锚点框先验,详见3.1节。使用NMS在2D空间中滤除IOU<0.4的以及score<0.7的框。3D->2D优化中设置 \sigma=0.3, \beta=0.01,γ = 0.5  。最后,通过在一个小的batch中抽取前20%高loss的框来进行在线hard-negative mining。

       作者注意到M3D-RPN依赖于3D框标注和每个标注的投影矩阵P.对于不知道这些信息的数据集,有必要预测相机的内部参数,并用弱监督利用3D-2D投影几何作为损失约束。


4.Experiments

作者在KITTI数据集两个核心3D定位任务:鸟瞰视角(BEV)和3D目标检测中评估了提出的算法框架。进一步可视化了M3D-RPN在不同场景下多类别3D目标检测中的定性例子(图5)。

其中,鸟瞰图视角任务旨在从俯视角度检测目标,所有的3D框首先投影到地平面,然后执行俯视下的2D检测。(表1显示该任务下的对比结果)。

其中,3D目标检测任务是在相机坐标系中直接进行目标检测,因此,所有IOU计算都引入了一个额外的维度,这大大增加了与BEV任务相比的定位难度。(表2显示该任务的实验对比)

Multi-Class 3D Detection: 该部分的实验见表3,作者任务当前在自行车上的表现不如汽车的好,应该是当前的数据样本偏向车和行人导致的,可通过数据增强等方式解决。

 

消融实验,针对深度感知卷积中,由于输入图像被resize到512,网络的backbone经过16倍尺度缩小,最后的特征图尺寸纵向为512/16=32,因此作者使用bins的个数分别为如表5中显示的[4,8,16,32]。作者还简化了b=1的特殊情况,这相当于使用两个全局流。实验发现当b=1和b=4通常比没有局部特征的性能更差,这表明任意添加更深的层对3D定位没有本质的帮助当b=32时,3D定位得到了一致的改善


5.Conclusion

本文,作者提出一种利用单一3D RPN来重构基于图像的3D目标检测,与之前的工作不同,以前的工作都由外部网络,外部数据和多阶段组成。M3D-RPN采用独特的2D和3D共享锚点设计,且利用2D尺度和3D深度相关性强的强先验知识。为了改进3D参数估计,作者进一步提出深度感知卷积层,使网络能开发空间感知信息。总体而言,本文方法能显著提高KITTI数据集在汽车,行人,自行车类的鸟瞰图和3D目标检测任务上的性能。

 

 

 

 

### 回答1: Faster R-CNN是一种基于区域建议网络(Region Proposal Networks,RPN)的物体检测算法,旨在实现实时物体检测。它通过预测每个区域是否含有物体来生成候选框,并使用卷积神经网络(CNN)来确定候选框中的物体类别。Faster R-CNN在提高检测精度的同时,也显著提高了检测速度。 ### 回答2: 在计算机视觉领域中,目标检测一直是热门研究的方向之一。近年来,基于深度学习的目标检测方法已经取得了显著的进展,并且在许多实际应用中得到了广泛的应用。其中,Faster R-CNN 是一种基于区域建议网络(Region Proposal Networks,RPN)的目标检测方法,在检测准确率和速度之间取得了很好的平衡,能够实现实时目标检测。 Faster R-CNN 的基本框架由两个模块组成:区域建议网络(RPN)和检测模块。RPN 主要负责生成候选目标框,而检测模块则利用这些候选框完成目标检测任务。具体来说,RPN 首先在原始图像上以多个尺度的滑动窗口为基础,使用卷积网络获取特征图。然后,在特征图上应用一个小型网络来预测每个位置是否存在目标,以及每个位置的目标边界框的坐标偏移量。最终,RPN 根据预测得分和位置偏移量来选择一部分具有潜在对象的区域,然后将这些区域作为候选框送入检测模块。 检测模块的主要任务是使用候选框来检测图像中的目标类别和位置。具体来说,该模块首先通过将每个候选框映射回原始图像并使用 RoI Pooling 算法来获取固定大小的特征向量。然后,使用全连接神经网络对这些特征向量进行分类和回归,以获得每个框的目标类别和精确位置。 相比于传统的目标检测方法,Faster R-CNN 具有以下优点:首先,通过使用 RPN 可以自动生成候选框,避免了手动设计和选择的过程;其次,通过共享卷积网络可以大大减少计算量,提高效率;最后,Faster R-CNN 在准确率和速度之间取得了很好的平衡,可以实现实时目标检测。 总之,Faster R-CNN 是一种高效、准确的目标检测方法,是深度学习在计算机视觉领域中的重要应用之一。在未来,随着计算机视觉技术的进一步发展,Faster R-CNN 这类基于深度学习的目标检测方法将会得到更广泛的应用。 ### 回答3: Faster R-CNN是一种结合了深度学习和传统目标检测算法的新型目标检测方法,旨在提高目标检测速度和准确率。Faster R-CNN采用了Region Proposal NetworkRPN)来生成候选区域,并通过R-CNN网络对候选区域进行分类和定位。 RPN是一种全卷积神经网络,用于在图像中生成潜在的候选区域。RPN通常在卷积特征图上滑动,对每个位置预测k个候选区域和其对应的置信度得分。这样,对于输入图像,在不同大小和宽高比的Anchor上预测候选框,可以在计算上更有效率。 R-CNN网络利用卷积特征图作为输入,对RPN生成的候选区域进行分类和精确定位。与以前的目标检测方法相比,Faster R-CNN使用了共享卷积特征,使得整个检测网络可以端到端地进行训练和优化,缩短了训练时间,同时也更便于理解和改进。 Faster R-CNN不仅具有较高的准确性,还具有较快的检测速度。在各种基准测试中,Faster R-CNN与其他目标检测算法相比,都取得了优异的性能表现。总之,Faster R-CNN将目标检测引入了一个新的阶段,为实时目标检测提供了一个良好的基础。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值