点击下方卡片,关注“自动驾驶之心”公众号
戳我-> 领取自动驾驶近15个方向学习路线
论文作者 | 自动驾驶Daily
编辑 | 自动驾驶之心
从鸟瞰图(BEV)的角度进行语义场景分割在促进移动机器人的规划和决策方面发挥着至关重要的作用。尽管最近的纯视觉方法在性能上取得了显著进步,但它们在下雨或夜间等不利的照明条件下往往会遇到困难。虽然有源传感器为这一挑战提供了解决方案,但激光雷达高昂的成本仍然是一个限制因素。
将camera数据与Radar融合是一种更廉价的替代方案,但在之前的研究中受到的关注较少。在这项工作中,我们的目标是通过引入BEVCar来推进这一有前景的途径,BEVCar是一种用于BEV目标和地图联合分割的新方法。核心新颖性在于首先学习原始雷达数据的基于点的编码,然后利用该编码来有效地初始化将图像特征提升到BEV空间中。在nuScenes数据集上进行了大量实验,证明了BEVCar的性能优于当前的技术水平。此外还表明,结合雷达信息显著增强了在具有挑战性的环境条件下的鲁棒性,并提高了远距离物体的分割性能!
链接:http://bevcar.cs.uni-freiburg.de
本文主要贡献:
1) 介绍了一种新的BEVCar框架,用于从相机和雷达数据中分割BEV地图和目标。
2) 提出了一种新的基于注意力的图像提升方案,该方案利用稀疏雷达点进行查询初始化。
3)基于学习的雷达编码优于原始元数据的使用。
4) 在具有挑战性的环境条件下将BEVCar与以前的基线进行了广泛的比较,并展示了利用雷达测量的优势。
5) 公开了nuScenes上使用的白天/晚上/下雨的分割
网络结构
下图为提出的用于BEV地图和目标分割的相机-雷达融合的BEVCar方法。使用带有可学习适配器的冻结DINOv2对环视图图像进行编码。受基于激光雷达的感知的启发,采用了可学习的雷达编码,而不是处理原始元数据。然后,通过可变形注意力将图像特征提升到BEV空间,包括新的radar-driven的查询初始化方案。最后,以基于注意力的方式将提升的图像表示与学习的雷达特征融合,并对车辆和地图类别执行多类BEV分割。
![7a9f3d683706f4ea47d9a7e571af9424.png](https://i-blog.csdnimg.cn/blog_migrate/386e174c48139e1cc46d3c27ffbef399.png)
受激光雷达处理的启发,以逐点方式对具有全连接层(FCN)的雷达数据进行编码,并使用最大池化来组合体素内的点特征。随后,采用基于CNN的高度压缩来获得BEV空间中的整体雷达特征。
![01af7b11d51b738f200b69aa858d3ff0.png](https://i-blog.csdnimg.cn/blog_migrate/13d7e6c8011f6875c06bcbbc952b7c87.png)
数据驱动查询初始化方案利用3D雷达信息来引导将2D图像特征提升到BEV空间。虽然图像BEV特征仅从沿相机射线的均匀分配中获得,但最终的通过可变形注意力考虑了来自雷达的深度。
![294badad530599220116fdede3a93884.png](https://i-blog.csdnimg.cn/blog_migrate/77930987ca0dce1f2cb6c32ee3f18ec5.png)
实验对比
BEVCar是在nuscenes上进行评估,论文进一步将验证场景分为白天(4449个样本)、下雨(968个样本)和夜晚(602个样本)场景,并将这一划分包含在代码中。对于目标分割,组合“车辆”类别的所有子类。对于地图分割,考虑所有可用的类别,即“可行驶区域”、“停车场区域”、”人行横道“、”人行道“、”停车线“、”道路分隔带“和”车道分隔带“。文中报告了先前工作中已经解决的那些类的IoU度量,并通过“映射”引用了所有映射类的平均IoU。为了将BEVCar与之前预测较少类别的基线进行比较,将“车辆”和“可驾驶面积”的平均值报告为“mIoU”!
在nuScenes验证分割上比较了BEVCar与纯相机(C)和相机雷达(C+R)BEV分割方法。Simple BEV++是一种定制的Simple BEV,没有实例感知训练,但具有与我们的方法相同的雷达元数据和地图分割头。为了将BEVCar与这些方法进行比较,将“车辆”和“可驾驶区域”类别的平均值提供为“mIoU。
![00d4ff2c58591fdcab2fd92c60474625.png](https://i-blog.csdnimg.cn/blog_migrate/34c66d0ca49a2666aa7f3343226fc782.png)
![44d20a7a1e20a379d878668c63018105.png](https://i-blog.csdnimg.cn/blog_migrate/8d6d5b825c476b99c3f3430213c55d2a.png)
![647d48263551c01020b48ebc90c87f5f.png](https://i-blog.csdnimg.cn/blog_migrate/d746a9756cf13de10123df8942a471cc.png)
![253ac271fa71cbe3adc09fb8d5fd6630.png](https://i-blog.csdnimg.cn/blog_migrate/79ca8dec018ff559c6e35c0cdc40aba2.png)
参考
[1] BEVCar: Camera-Radar Fusion for BEV Map and Object Segmentation.
投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!
① 全网独家视频课程
BEV感知、毫米波雷达视觉融合、多传感器标定、多传感器融合、多模态3D目标检测、车道线检测、轨迹预测、在线高精地图、世界模型、点云3D目标检测、目标跟踪、Occupancy、cuda与TensorRT模型部署、大模型与自动驾驶、Nerf、语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习)
![9462cbcd0402c833255e28b319eaf5c5.png](https://i-blog.csdnimg.cn/blog_migrate/83e89233a61dd21673e9ef2bb706bf48.png)
② 国内首个自动驾驶学习社区
国内最大最专业,近2700人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知(2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频
![f86000b346d41e3994a3d25817ae8a77.png](https://i-blog.csdnimg.cn/blog_migrate/1879645fd9c1f5a7f7cc6d6c5e6ad152.png)
③【自动驾驶之心】技术交流群
自动驾驶之心是首个自动驾驶开发者社区,聚焦2D/3D目标检测、语义分割、车道线检测、目标跟踪、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、在线地图、点云处理、端到端自动驾驶、SLAM与高精地图、深度估计、轨迹预测、NeRF、Gaussian Splatting、规划控制、模型部署落地、cuda加速、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)
④【自动驾驶之心】平台矩阵,欢迎联系我们!