JPerceiver: 联合驾驶场景中深度、姿态和道路估计的感知网络

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

arXiv论文“JPerceiver: Joint Perception Network for Depth, Pose and Layout Estimation in Driving Scenes“,上传于22年7月,报道关于澳大利亚悉尼大学陶大程教授和北京京东研究院的工作。

0fb5f39f9644ba7a86c7800cbc46136d.png

深度估计、视觉测程计(VO)和鸟瞰图(BEV)场景布局估计是驾驶场景感知的三个关键任务,这是自主驾驶中运动规划和导航的基础。虽然相互补充,但通常侧重于单独的任务,很少同时处理这三个任务。

一种简单的方法是以顺序或并行的方式独立地完成,但有三种缺点,即1)深度和VO结果受到固有的尺度多义问题的影响;2) BEV布局通常单独估计道路和车辆,而忽略显式叠加-下垫关系;3)虽然深度图是用于推断场景布局的有用几何线索,但实际上直接从前视图图像预测BEV布局,并没有使用任何深度相关信息。

本文提出一种联合感知框架JPerceiver来解决这些问题,从单目视频序列中同时估计尺度-觉察深度、VO以及BEV布局。用跨视图几何变换(cross-view geometric transformation,CGT),根据精心设计的尺度损失,将绝对尺度从道路布局传播到深度和VO。同时,设计一个跨视图和模态转换(cross-view and cross-modal transfer,CCT)模块,用深度线索通过注意机制推理道路和车辆布局。

JPerceiver以端到端的多任务学习方式进行训练,其中CGT尺度损失和CCT模块促进任务间知识迁移,利于每个任务的特征学习。

代码和模型可下载https://github.com/sunnyHelen/JPerceiver.


如图所示,JPerceiver分别由深度、姿态和道路布局三个网络组成,都基于编码器-解码器架构。深度网络旨在预测当前帧It的深度图Dt,其中每个深度值表示3D点与摄像头之间的距离。姿态网络的目标是预测在当前帧It及其相邻帧It+m之间姿态变换Tt→t+m。道路布局网络的目标是估计当前帧的BEV布局Lt,即俯视笛卡尔平面中道路和车辆的语义占用率。这三个网络在训练期间联合优化。

2fbf0af4ff18ef3df90d855c8d86215d.png

预测深度和姿态的两个网络以自监督方式用光度损失和平滑度损失进行联合优化。此外,还设计CGT尺度损失来解决单目深度和VO估计的尺度多义问题。

为实现尺度-觉察的环境感知,用BEV布局中的尺度信息,提出CGT的尺度损失用于深度估计和VO。由于BEV布局显示了BEV笛卡尔平面中的语义占用,分别覆盖自车前面Z米和左右(Z/2)米的范围。其提供一个自然距离场(natural distance field)z,每个像素相对于自车的度量距离zij,如图所示:

6d1b67371e640ff0654be938177e96b6.png

假设BEV平面是地面,其原点刚好在自车坐标系原点下面,基于摄像机外参可以通过单应性变换将BEV平面投影到前向摄像头。因此,BEV距离场z可以投影到前向摄像头中,如上图所示,用它来调节预测深度d,从而导出CGT尺度损失:

cb32476df510bc0fcf63d10a3fee4921.png

对于道路布局估计,采用了编码器-解码器网络结构。值得注意的是,用一个共享编码器作为特征提取器和不同的解码器来同时学习不同语义类别的BEV布局。此外,设CCT模块,以加强任务之间的特征交互和知识迁移,并为BEV的空间推理提供3-D几何信息。为了正则化道路布局网络,将各种损失项组合在一起,形成混合损失,并实现不同类的平衡优化。

CCT是研究前向视图特征Ff、BEV布局特征Fb、重转换的前向特征Ff′和前向深度特征FD之间的相关性,并相应地细化布局特征,如图所示:分两部分,即跨视图模块和跨模态模块的CCT-CV和CCT-CM。

289b6f09c1eb829d08b3854bc66528b5.png

在CCT中,Ff和Fd由相应感知分支的编码器提取,而Fb通过一个视图投影MLP将Ff转换为BEV获得,一个循环损失约束的相同MLP将其重新转换为Ff′。

在CCT-CV,交叉注意机制用于发现前向视图和BEV特征之间的几何对应关系,然后指导前向视图信息的细化,并为BEV推理做好准备。为了充分利用前向视图图像特征,将Fb和Ff投影到patches:Qbi和Kbi,分别作为query和 key。

除了利用前向视图特征外,还部署CCT-CM来施加来自Fd的3-D几何信息。由于Fd是从前向视图图像中提取的,因此以Ff为桥来减少跨模态间隙并学习Fd和Fb之间的对应关系是合理的。Fd起Value的作用,由此获得与BEV信息相关有价值的3-D几何信息,并进一步提高道路布局估计的准确性。

在探索同时预测不同布局的联合学习框架过程中,不同语义类别的特征和分布存在很大差异。对于特征,驾驶场景中的道路布局通常需要连接,而不同的车辆目标必须分割。

对于分布,观察到的直线道路场景比转弯场景多,这在真实数据集中是合理的。这种差异和不平衡增加了BEV布局学习的难度,尤其是联合预测不同类别,因为在这种情况下,简单的交叉熵(CE)损失或L1损失会失效。将几种分割损失(包括基于分布的CE损失、基于区域的IoU损失和边界损失)合并为混合损失,预测每个类别的布局。


实验结果如下:

2512ca72b7b29838f10a32326b74d9f5.png

e7ea3468fe323e3f77c02bbaf8ebbef2.png

20816466e06a21482e42539e908399c7.png

c5fd5fd28cae85d594547a7df7c2ec4e.png

48e6a5bde42a5533f8dc254c4efe6062.png

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D感知、多传感器融合、SLAM、高精地图、规划控制、AI模型部署落地等方向;

加入我们:自动驾驶之心技术交流群汇总!

自动驾驶之心【知识星球】

想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D感知、多传感器融合、目标跟踪)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球(三天内无条件退款),日常分享论文+代码,这里汇聚行业和学术界大佬,前沿技术方向尽在掌握中,期待交流!

f12d6cc5a0464255d621eeda1edeafcd.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值