文章:Simple-BEV: What Really Matters for Multi-Sensor BEV Perception?
作者:Adam W. Harley , Zhaoyuan Fang,Jie Li,Rares Ambrus , Katerina Fragkiadaki
编辑:点云PCL
代码:https://github.com/aharley/simple_bev
文章:https://arxiv.org/abs/2206.07959(ICRA 2023)
欢迎各位加入知识星球,获取PDF论文,欢迎转发朋友圈。文章仅做学术分享,如有侵权联系删文。
公众号致力于点云处理,SLAM,三维视觉,高精地图等领域相关内容的干货分享,欢迎各位加入,有兴趣的可联系dianyunpcl@163.com。未经作者允许请勿转载,欢迎各位同学积极分享和交流。
摘要
多传感器的鸟瞰视图(BEV)感知在自动驾驶中扮演着重要的角色。然而,在实际应用中,选择适合的传感器和特征对于实现准确和鲁棒的BEV感知至关重要。本文提出了一种名为Simple-BEV的方法,旨在探究多传感器BEV感知中真正重要的因素。本文基于一个综合的自动驾驶数据集,通过对不同传感器配置和特征组合的实验进行全面评估。提出了一种评估指标来量化BEV感知的准确性和鲁棒性,并使用该指标进行比较和分析。实验结果表明,传感器的分辨率、覆盖范围以及传感器间的互补性是实现准确和鲁棒BEV感知的关键因素,我们的研究结果为多传感器BEV感知提供了指导,并为未来的自动驾驶系统设计提供了有价值的参考。
主要贡献
本论文有两个主要贡献:首先阐明了BEV感知模型设计和训练协议中的重要因素。特别指出,批量大小和输入分辨率对性能有很大影响,而lifting细节的影响较为适度。其次证明了雷达数据可以通过简单的融合方法大大提高性能。并发布了代码和可复现的模型,以促进未来在该领域的研究。
主要内容
我们的模型从相机、雷达甚至激光雷达获取输入数据,假设传感器之间的数据是同步的,假设传感器的内参和相对姿态已知。该模型具有三维度的度量范围和分辨率。遵循这个任务的基准设置,将左/右和前/后的范围设置为100m × 100m,以分辨率200×200离散化。将上/下的范围设置为10m,并以分辨率8进行离散化。该体积以一个参考相机为中心和方向,通常为前置相机。用X表示左右轴,用Y表示上下轴,用Z表示前后轴。
我们使用ResNet-101作为主干网络对每个RGB输入图像进行特征提取,其形状为3 × H × W,将最后一层的输出进行上采样,并与第三层的输出进行拼接,然后通过两个卷积层进行实例归一化和ReLU激活 ,得到形状为C × H/8 × W/8的特征图(图像分辨率的八分之一)。我们将预定义的3D坐标体积投影到所有特征图上,并在那里进行双线性采样,从每个相机得到一个3D特征体积。同时,我们还计算每个相机的二值“有效”体积,指示3D坐标是否位于相机视锥内。然后,我们对一组体积进行有效加权平均,将我们的表示缩减为一个形状为C × Z × Y × X的单个3D特征体积。然后,再重新排列轴,使垂直维度成为通道维度,即从C × Z × Y × X → (C · Y) × Z × X,得到一个高维度的BEV特征图。如果提供了雷达数据,我们将其栅格化为另一个具有与基于RGB的地图相同空间尺寸的BEV特征图。我们使用任意数量的雷达通道R(包括R = 0,表示没有雷达)。在nuScenes 中,每个雷达返回包含总共18个字段,其中5个字段是位置和速度,其余字段是内置预处理的结果。我们使用所有这些数据,通过使用位置数据选择网格上最近的XZ位置(如果在边界内),并将15个非位置项用作通道,从而得到一个形状为R×Z×X的BEV特征图,其中R = 15。如果提供了激光雷达数据,我们将其体素化为形状为Y×Z×X的二值占用网格,并将其用于替代雷达特征。然后,我们将RGB特征和雷达/激光雷达特征进行拼接,并通过应用3×3的卷积核将扩展通道压缩到维度C。这样就实现了降维,即 (C · Y + R) × Z × X → C × Z × X。此时,我们得到了一个特征平面,代表了场景的鸟瞰视图。
使用三个ResNet-18 块处理这个特征平面,产生三个特征图,然后使用双线性上采样的加法跳跃连接逐渐将粗糙特征恢复到输入分辨率,并最后应用两个卷积层作为分割任务的输出。根据FIERY,我们还使用辅助任务头部来预测中心度和偏移量,以对模型进行正则化。偏移量头部生成一个向量场,在每个对象掩码中,每个向量指向该对象的中心,我们使用交叉熵损失训练分割头部,并使用L1损失监督中心度和偏移量字段,使用基于不确定性的可学习权重 平衡这三个损失。3D分辨率为200×8×200,最终输出分辨率为200×200,我们的3D度量范围为100m × 10m × 100m,这对应于体素长度为0.5m × 1.25m × 0.5m(按Z、Y、X的顺序)。使用128维的特征维度(即通道维度C),ResNet-101在COCO 2017上进行了目标检测的预训练,BEV ResNet-18从头开始训练,使用Adam-W优化器进行端到端训练,学习率为5e-4,并使用1周期调度。我们进行了25000次迭代训练。
自动驾驶车辆需要至少一种对车辆周围的三维空间进行 "鸟瞰图" 表示。挑战在于从安装在车辆上的传感器获取鸟瞰图表示。在本研究中,我们提出了一个简单的基线方法来解决这个感知问题,相比当前的最先进方法,它更准确、更快速,并且需要更少的参数。
最近的研究工作集中在创新的从2D图像平面到鸟瞰图平面的特征提取技术,仅利用摄像机提供最终输出结果的方法。
在我们提出的基准模型中,采用了一种无需参数的方法:将一个体素的3D坐标投影到图像特征图中,并在该位置进行双线性采样,在模型的其他方面,如2D和BEV卷积神经网络方面,与相关工作相似。
在建立这个新的简单基准模型的同时,也借此机会质疑仅依赖相机的想法,而不是融合来自其他传感器(例如毫米波雷达)的现成度量信息。我们之前看到的研究报告称,nuScenes中的雷达数据可能过于稀疏,无法提供有用的信息。通过可视化数据如下视频,我们可以看到雷达数据确实比LiDAR更稀疏,但它提供了一些有关度量场景结构的线索,这是仅通过RGB无法获取的。
假设某些度量信息总比没有好,我们采用了一种非常简单的策略将雷达信息与RGB特征体积融合:我们将雷达数据栅格化成与BEV维度匹配的图像,然后将其作为额外的通道简单地连接起来。
我们的实验结果表明,以这种方式将雷达信息整合进来可以大幅提高准确性。
实验与分析
请参阅论文以获取定量结果和分析,这里仅展示视频
总结
这项工作探索了BEV语义解析的设计和训练选择,并展示了批次大小和图像分辨率在性能中起到了意外的重要作用,这在之前的文献中尚未讨论过。虽然最近的研究开发了越来越复杂的2D到BEV抬升策略,但我们展示了双线性采样也表现良好。在这种情况下,时间积分是一个自然的选择,但我们将其留给未来的工作。充分利用可用的高分辨率图像将需要更全面地探索主干网络,未来的工作领域还包括探索3D物体检测,除了稠密的BEV表示,我们的实验证明,雷达为BEV解析提供了有用的信息,希望这一观点能够应用到其他方法中,我们的工作并不主张使用特定的传感器,而是主张在可用的情况下尽可能使用度量信息,即使它们是稀疏和嘈杂的。
更多详细内容后台发送“知识星球”加入知识星球查看更多。
3D视觉与点云学习星球:主要针对智能驾驶全栈相关技术,3D/2D视觉技术学习分享的知识星球,将持续进行干货技术分享,知识点总结,代码解惑,最新paper分享,解疑答惑等等。星球邀请各个领域有持续分享能力的大佬加入我们,对入门者进行技术指导,对提问者知无不答。同时,星球将联合各知名企业发布自动驾驶,机器视觉等相关招聘信息和内推机会,创造一个在学习和就业上能够相互分享,互帮互助的技术人才聚集群。
以上内容如有错误请留言评论,欢迎指正交流。如有侵权,请联系删除
扫描二维码
关注我们
让我们一起分享一起学习吧!期待有想法,乐于分享的小伙伴加入知识星球注入爱分享的新鲜活力。分享的主题包含但不限于三维视觉,点云,高精地图,自动驾驶,以及机器人等相关的领域。
分享与合作方式:微信“cloudpoint9527”(备注:姓名+学校/公司+研究方向) 联系邮箱:dianyunpcl@163.com。
为开源的伙伴们点赞吧!