BEVContrast:用于LiDAR点云的BEV 空间中自监督SOTA!

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

>>点击进入→自动驾驶之心【BEV感知】技术交流群

论文作者 | 汽车人

编辑 | 自动驾驶之心

原标题:BEVContrast: Self-Supervision in BEV Space for Automotive Lidar Point Clouds

论文链接:https://arxiv.org/pdf/2310.17281.pdf

代码链接:https://github.com/valeoai/BEVContrast

作者单位:Univ Gustave Eiffel Valeo.ai

e454b32e39017e5bb7e6c61bfdecc74d.png

论文思路:

本文提出了一种令人惊讶的简单而有效的方法,用于汽车LiDAR点云上 3D backbone 的自监督。本文设计了在同一场景中捕获的LiDAR扫描特征之间的对比损失。文献中已经提出了几种这样的方法,从 PointConstrast [40](使用 points 级别的对比)到最先进的 TARL [30](使用 segments 级别的对比),大致对应于物体。虽然前者的实现非常简单,但它被后者超越,但后者需要昂贵的预处理。在 BEVContrast 中,本文在BEV平面中的 2D cells 级别定义对比。由此产生的 cell-level 表示在 PointContrast 中利用的 point-level 表示和 TARL 中利用的 segment-level 表示之间提供了良好的权衡:本文保留了 PointContrast 的简单性(cell 表示计算成本低廉),同时在下游语义分割上超越了 TARL 的性能。

主要贡献:

首先,本文提出了一种新颖的LiDAR点云自监督方法,它保留了 PointContrast 的简单性,同时超越了所有当前下游语义分割的自监督方法,包括非对比方法,例如 ALSO [3]。

其次,本文表明,在BEV中投影和池化特征比通过在复杂方法提取的 segments 上池化特征更有效。

最后,由于BEVContrast在BEV中工作,因此它可以开箱即用,用于预训练3D目标检测的 backbone ,例如SECOND [41]或PVRCNN [36],与最先进的技术相比,本文可以实现竞争结果。

网络设计:

在这项工作中,本文提出在BEV平面上的网格的 2D cells 级别上对比特征。cell 的特征在这里被定义为投影到该 cell 中的点的特征的平均值。本文将产生的方法称为 BEVContrast。其动机是城市场景中的物体在 BEV 平面中自然地被很好地分离。因此,对该平面中的点特征进行局部平均允许我们获得 cell-level 特征,这是 point-level 表示和 segment-level 表示之间的良好权衡。BEVContrast 的 high-level 原理如图 1 所示。它保留了 PointContrast 的简单性(BEV 中的投影和每个 BEV  cell 中的局部平均池化的计算成本较低),而实验表明,尽管本文没有明确地处理动态对象,但它可以与 TARL 等最好的自监督方法竞争。

d57aec2f57f933eec830d67509ed9650.png

图 1. 几种自监督对比方法与 BEVContrast 的比较。SegContrast [29] 和 TARL [30] 通过对比经过仔细且昂贵的预处理获得的 segments 级别的特征来学习强大的表示。PointContrast [40] 更简单,因为它不需要预处理并直接对比 point-level 表示,但实验表明这些 point-level 表示不如 segment-level 表示强大。BEVContrast 通过提取 BEV 中的 cell-level 表示来保留 PointContrast 的简单性。这些表示计算成本低廉,不需要预处理,并且在下游语义分割方面比 SegContrast 和 TARL 表现更好。(⊕和⊖分别代表正向和负向对比损失;t1和t2代表两个不同的时间步。)

f0da25883fba636b8437bac2ed456f8e.png

图 2. BEVContrast 概述。相同场景的两个点云视图被编码并投影在 BEV 平面上。一个 BEV 通过仿射变换和插值与另一个 BEV 的坐标系对齐,并且一个损失对比两个 BEV 视图中的特征。

实验结果:

0e60fb8b11eac3f4363a62b7c01962e2.png d7699f414c4def0209d465b7209ec43e.png 7157ca5ff4d611e2cc7df56a91f468cc.png d2779a1fc98316fcaaec8385b2133ab7.png fd04e85fd13993c2304bd9e8de26f527.png d7dc0cb1245897080b1ae3cf92dcdd13.png d89af517e7dcdafaec3de250227b44b3.png d4f23d18b627eb154cd80fcccc32813b.png

引用:

Sautier, C., Puy, G., Boulch, A., Marlet, R., & Lepetit, V. (2023). BEVContrast: Self-Supervision in BEV Space for Automotive Lidar Point Clouds. ArXiv. /abs/2310.17281

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

d04f61484714f169bdecdd631e644026.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

33db6647a3002f5a881fe53c27121cda.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

b7f51427a1fc751c5cdace274c99392b.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

ba9dc89eb96b2f62cd8ed60eb61c0da6.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值