ECCV 2024|OSP:自动驾驶全新建模方法,端到端输出任意位置的占用结果

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

今天自动驾驶之心邀请来了华中科技大学 Vision Lab 在读博士&地平线实习生—石以昂!为大家分享基于点集稀疏表征的占据网格预测!

如果您有兴趣分享相关学术成果,请联系AIDriver002

更多行业咨询与技术分享,欢迎加入『自动驾驶之心知识星球』,相关将在星球内公布!

ec3798315a131480aebc09b4d2727369.jpeg

在自动驾驶任务中,全面的3D场景理解至关重要,直接影响后续任务的效率和准确性。传统的3D场景理解方法,例如3D目标检测,难以描述任意形状和无限类别的真实世界物体。占据网格预测则借鉴了机器人领域中的占用网格建图的思想,对自动驾驶环境进行表征,相比于传统的3D检测任务,占据网格预测可以适用于各种类型的动静态目标和场景感知,更精准地还原客观物理世界,是智驾场景建模的热点任务。

在 ECCV 2024上,地平线-华中科技大学联合实验室提出的新方法——Occupancy as Set of Points(OSP),探索了全新视角下的占据网格预测算法,利用点集稀疏表征,对智驾场景建模提供了一个全新的思路。OSP 不仅在理论上提供了创新性的解决方案,还在公开数据集上取得了卓越的实验结果,能够在提高计算性能的同时保有高度灵活性。

f77ca91f08b583a713dad24867427193.png

OSP和BEV表征方法对比

OSP 利用稀疏点集的位置信息和多尺度图像特征对占据网格进行预测,平均交并比(mIoU)超过了基于 BEV 表征的方法;得益于自定义稀疏点集(PoIs)的高度灵活性,OSP 可以端到端地输出任意位置的状态信息,也可以用于增强 BEV 表征的方法。这为未来的研究和应用奠定了坚实的基础。

为了让大家进一步了解 OSP 的创新方法,8月15日19:30,地平线策划推出新一期「你好,开发者」自动驾驶技术专场,主题为《基于点集稀疏表征的占据网格预测》。

分享嘉宾首先会介绍占据网格预测的研究背景和发展现状,探讨自动驾驶中的环境表征对于占据网格预测任务的影响,而后重点分享全新视角下的占据网格预测方法 OSP。最后,分享嘉宾会同大家开放性讨论交流未来 Occupancy 及自动驾驶算法的研发方向。期待大家的参与!

4d5a3cf771da59c57670750d699dc285.jpeg

哔哩哔哩关注自动驾驶之心,预约直播

e066b02af61f7e02e833b582a63b49a8.png

自动驾驶之心B站

【自动驾驶之心】全平台矩阵

98e4eb3e4da102154af60fb942229a56.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值