点击下方卡片,关注“自动驾驶之心”公众号
ADAS巨卷干货,即可获取
今天自动驾驶之心邀请来了华中科技大学 Vision Lab 在读博士&地平线实习生—石以昂!为大家分享基于点集稀疏表征的占据网格预测!
如果您有兴趣分享相关学术成果,请联系AIDriver002!
更多行业咨询与技术分享,欢迎加入『自动驾驶之心知识星球』,相关将在星球内公布!
在自动驾驶任务中,全面的3D场景理解至关重要,直接影响后续任务的效率和准确性。传统的3D场景理解方法,例如3D目标检测,难以描述任意形状和无限类别的真实世界物体。占据网格预测则借鉴了机器人领域中的占用网格建图的思想,对自动驾驶环境进行表征,相比于传统的3D检测任务,占据网格预测可以适用于各种类型的动静态目标和场景感知,更精准地还原客观物理世界,是智驾场景建模的热点任务。
在 ECCV 2024上,地平线-华中科技大学联合实验室提出的新方法——Occupancy as Set of Points(OSP),探索了全新视角下的占据网格预测算法,利用点集稀疏表征,对智驾场景建模提供了一个全新的思路。OSP 不仅在理论上提供了创新性的解决方案,还在公开数据集上取得了卓越的实验结果,能够在提高计算性能的同时保有高度灵活性。
OSP和BEV表征方法对比
OSP 利用稀疏点集的位置信息和多尺度图像特征对占据网格进行预测,平均交并比(mIoU)超过了基于 BEV 表征的方法;得益于自定义稀疏点集(PoIs)的高度灵活性,OSP 可以端到端地输出任意位置的状态信息,也可以用于增强 BEV 表征的方法。这为未来的研究和应用奠定了坚实的基础。
为了让大家进一步了解 OSP 的创新方法,8月15日19:30,地平线策划推出新一期「你好,开发者」自动驾驶技术专场,主题为《基于点集稀疏表征的占据网格预测》。
分享嘉宾首先会介绍占据网格预测的研究背景和发展现状,探讨自动驾驶中的环境表征对于占据网格预测任务的影响,而后重点分享全新视角下的占据网格预测方法 OSP。最后,分享嘉宾会同大家开放性讨论交流未来 Occupancy 及自动驾驶算法的研发方向。期待大家的参与!
哔哩哔哩关注自动驾驶之心,预约直播
自动驾驶之心B站
【自动驾驶之心】全平台矩阵