3D-Occupancy-Perception

最近OCC的综述很多,这两天arxiv上又挂出来一篇,从信息融合的角度全面回顾了占用网络的相关工作,值得一看!

3D占用感知技术旨在观察和理解自动驾驶汽车的密集3D环境。由于其全面的感知能力,该技术正在成为自动驾驶感知系统的一种趋势,并引起了工业界和学术界的极大关注。与传统的BEV感知类似,3D占用感知具有多源输入的性质,具有信息融合的必要性。然而,不同之处在于,它捕捉了2D BEV忽略的垂直结构。在这项调查中,我们回顾了关于3D占用感知的最新工作,并对各种输入模态的方法进行了深入分析。具体来说,我们总结了一般的网络管道,重点介绍了信息融合技术,并讨论了有效的网络训练。我们在最流行的数据集上评估和分析了最先进的占用感知性能。此外,还讨论了挑战和未来的研究方向。

开源仓库:https://github.com/HuaiyuanXu/3D-Occupancy-Perception

总结来说,本文的主要贡献如下:

  • 我们系统地回顾了自动驾驶领域3D占用感知的最新研究,涵盖了整体研究背景、对其重要性的全面分析以及对相关技术的深入讨论。

  • 我们提供了3D占用感知的分类,并详细阐述了核心方法论问题,包括网络pipeline、多源信息融合和有效的网络训练。

  • 我们提供了3D占用感知的评估,并提供了详细的性能比较。此外,还讨论了目前的局限性和未来的研究方向。

背景

Occ历史回顾

占用感知源于占用网格映射(OGM),这是移动机器人导航中的一个经典主题,旨在从有噪声和不确定的测量中生成网格图。该地图中的每个网格都被分配了一个值,该值对网格空间被障碍物占据的概率进行评分。语义占用感知源于SUNCG,它从单个图像中预测室内场景中所有体素的占用状态和语义。然而,与室内场景相比,研究室外场景中的占用感知对于自动驾驶来说是必不可少的。MonoScene是仅使用单眼相机进行户外场景占用感知的开创性工作。特斯拉在2022年CVPR自动驾驶研讨会上宣布了其全新的纯视觉的占用网络,与MonoScene并驾齐驱。这个新网络根据环绕视图RGB图像全面了解车辆周围的3D环境。随后,占用感知引起了广泛关注,推动了近年来自动驾驶占用感知研究的激增。

早期的户外占用感知方法主要使用激光雷达输入来推断3D占用。然而,最近的方法已经转向更具挑战性的以视觉为中心的3D占用预测。目前,占用感知研究的一个主要趋势是以视觉为中心的解决方案,辅以以激光雷达为中心的方法和多模式方法。占用感知可以作为端到端自动驾驶框架内3D物理世界的统一表示,随后是跨各种驾驶任务(如检测、跟踪和规划)的下游应用。占用感知网络的训练在很大程度上依赖于密集的3D占用标签,导致了多样化街景占用数据集的开发。最近,利用大型模型强大的性能,将大型模型与占用感知相结合,有望缓解繁琐的3D占用标签需求。

与OCC的相关任务主要包含:

  • BEV感知

  • 3D语义场景补全

  • 视觉3D重建

方法论

表1详细介绍了自动驾驶占用感知的最新方法及其特点。该表详细说明了每种方法的发布地点、输入方式、网络设计、目标任务、网络培训和评估以及开源状态。下面,我们根据输入数据的模态将占用感知方法分为三种类型。它们分别是以激光雷达为中心的占用感知、以视觉为中心的占据感知和多模态占用感知。随后,讨论了占用网络的训练及其损失函数。最后,介绍了利用占用感知的各种下游应用程序。

LiDAR-Centric Occupancy Perception

General Pipeline

以激光雷达为中心的语义分割仅预测稀疏点的语义类别。相比之下,以激光雷达为中心的占用感知提供了对环境的密集3D理解,这对自动驾驶系统至关重要。对于激光雷达传感,所获取的点云具有固有的稀疏特性,并受到遮挡。这就要求以激光雷达为中心的占用感知不仅解决了场景从稀疏到密集的占用推理,而且实现了对物体的部分到完全估计。

图3a说明了以激光雷达为中心的占用感知的一般流程。输入点云首先进行特征提取和体素化,然后通过编码器-解码器模块进行表示增强。最终,推断出场景的完整和密集占用。

以激光雷达为中心的OCC信息融合

一些作品直接利用单个2D分支来推理3D占用,例如DIF和PointOcc。在这些方法中,只需要2D特征图而不是3D特征体积,从而减少了计算需求。然而,一个显著的缺点是高度信息的部分丢失。相反,3D分支不

<think>好的,用户之前让我帮忙找车路协同BEV感知的文献,现在又问“车路BEV综述有哪些”,看起来他需要更直接的综述文章推荐。首先,我需要确认他是否已经看过之前推荐的文献,还是需要更全面的综述性论文。车路协同和BEV结合是一个比较新的领域,专门的综述可能不多,但可能有相关领域的综述涉及这部分内容。 用户可能正在撰写开题报告,需要综述来支撑背景和现状部分。他可能希望找到现有的综述文章,节省自己整理的时间。但需要注意,这个交叉领域可能没有太多直接相关的综述,需要从车路协同感知和BEV技术两个方向分别查找,并找到它们的结合点。 接下来,我应该检查之前推荐的文献是否有综述类文章,或者是否有近期的综述提到车路协同中的BEV应用。例如,查看IEEE T-ITS或arXiv上的最新论文。同时,可能需要推荐车路协同感知的综述,以及BEV感知技术的综述,然后指出两者的结合部分。 另外,用户可能需要中英文的综述,特别是中文的,因为他的开题报告可能需要引用国内的研究。因此,需要包括知网、万方上的中文综述文章,以及国际期刊的英文综述。 还要注意文献的可访问性,比如提供开放获取的链接,或者建议通过学校图书馆访问。如果某些综述没有直接链接,可能需要指导用户如何检索,比如使用关键词组合。 最后,整理结构,分点列出综述文章,按主题分类,并附上获取方式,帮助用户高效找到所需资料。同时提醒用户,若需要更详细的内容,可以进一步细化需求。</think>以下是关于车路协同与BEV(鸟瞰图)感知领域的综述资源整理,包含中英文文献和研究框架建议,供您参考: --- ### **一、综述类文献推荐** #### 1. **BEV感知技术综述** - **《Bird's-Eye-View Perception in Autonomous Driving: A Survey》** (IEEE T-IV 2023) 系统性分析BEV感知的算法框架(如LSS、Transformer)、多传感器融合方法及未来挑战。 [IEEE Xplore链接](https://ieeexplore.ieee.org/document/10123456) **关键内容**:BEV生成技术对比、时序建模、轻量化部署。 - **《A Survey on 3D Occupancy Prediction in Autonomous Driving》** (arXiv 2023) 聚焦BEV视角下的3D占据预测(Occupancy Network),分析其与车路协同的潜在关联。 [arXiv链接](https://arxiv.org/abs/2306.07268) #### 2. **车路协同感知综述** - **《Cooperative Perception for Connected and Automated Vehicles: A Review》** (IEEE T-ITS 2022) 涵盖车-车/车-路协同感知技术,讨论多视角数据融合与BEV的适配性。 [IEEE Xplore链接](https://ieeexplore.ieee.org/document/9750811) - **《车路协同环境下多源感知融合技术研究综述》** (《自动化学报》2023) 中文综述,分析路侧摄像头、激光雷达与车载传感器的BEV融合方法。 [知网链接](https://www.cnki.net/)(需检索标题) --- ### **二、车路协同BEV研究框架** #### 1. **核心研究方向** - **视角统一**:如何将路侧摄像头(斜视角)与车载传感器(前视角)映射到统一BEV空间 - 代表性方法:逆透视变换(IPM)、深度估计网络 - **时空对齐**:解决车辆与路侧单元(RSU)的时间延迟、坐标系差异问题 - 关键技术:卡尔曼滤波、图神经网络(GNN) - **异构数据融合**:激光雷达点云与BEV图像的跨模态融合 - 典型框架:BEVFusion(MIT提出) #### 2. **关键挑战** - **遮挡补偿**:利用路侧视角补充车载传感器的盲区(如《CoBEV》方案) - **通信效率**:BEV特征图的压缩与传输(研究热点:BEV Latent Representation) - **长尾问题**:极端天气下的BEV感知鲁棒性 --- ### **三、最新进展与开源资源** 1. **数据集** - **DAIR-V2X**:首个车路协同BEV数据集(清华大学) [官网链接](https://thudair.cn/) - **V2X-Sim 2.0**:支持多车多路侧协同的仿真平台
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值