3d在调试区输出坐标_自动驾驶|3D目标检测:MV3D-Net(一)

MV3D-Net是2017年提出的融合视觉和雷达点云信息的3D目标检测网络,通过俯视图和前视图减少计算量。该文介绍了网络结构,包括特征提取、候选区域网络、多模态融合和3D候选区的生成,旨在优化3D目标检测的效率和准确性。
摘要由CSDN通过智能技术生成

32b4813c7325625093bc7c92c0d6d8aa.png

论文题目:Multi-View 3D Object Detection Network for Autonomous Driving

开源代码:https://github.com/leeyevi/MV3D_TF

MV3D-Net是2017年发表的一篇论文,它融合了视觉和雷达点云信息,同时,和以往基于voxel的方法不同,它只用了点云的俯视图和前视图,这样既能减少计算量,又不至于丧失过多的信息。随后生成3D候选区域,把特征和候选区域融合后输出最终的目标检测框。

一、相关工作及改进

该论文对相关工作做了比较清晰的总结,我们不妨把这部分原文贴在这里,算是对3D目标检测的算法有一个整体的了解。作者列出以上这些传统方法,也是为了显示自己提出的方法的优越性,针对这积累算法的缺点,作者也提出了相应的改进思路,这些思路就是的实现就是本文的核心内容。

1. 基于点云的3D目标检测

  • 方法描述:将3D点云体素化,提取结构特征之后送入到SVM或者神经网络中进行分类,还有的使用了点云的前视图,包含2D点云图,使用了一个全链接的卷积网络作用在2D点云图上从而预测出3D的boxes。
  • 尚存缺点:计算量太大
  • 改进思路:3D点云编码为多视角的特征图,应用与基于区域的多模式表示。

2. 基于Images的3D目标检测

  • 方法描述:通过3D体素模式(例如3DVP)运用一系列的ACF检测器去做2D的检测和3D姿态的估计。
  • 尚存缺点:Image-based的方法通常都依赖于精确的深度估计或标记检测。
  • 改进思路:融合雷达点云去提高3D localization的效果。

3. 多模态融合

  • 方法描述:结合图像,深度,甚至光流应用于2D的行人检测。
  • 尚存缺点:这方面工作太少,方法发展还不完善(作者这种描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值