[论文解读]Multi-View 3D Object Detection Network for Autonomous Driving

问题引入

在无人驾驶场景中,物体的3D检测(或者说是bounding-box)的重要性不言而喻。从2D检测到3D检测,主要的难点是提取深度信息,因此总体上可以将其分为四种,分别为:

  • 基于单目图像(Mono)
  • 基于双目图像(Stereo)
  • 基于雷达(LIDAR)
  • 基于融合网络

这篇论文就是一篇较为出色的融合网络的范例。后期和清华的老师沟通得知,这篇论文的算法正在被产业化,因此源码在一段时间内不会透露,可以就相关问题进行沟通。

但是该论文的很多思想以及尝试的实现代码还是有很多值得学习的地方的。

接下来说一下这篇文章的性质: 这是一篇将雷达点云与单目视觉融合来进行的3D bounding-box提取。

关于突出贡献什么的,个人觉得最大的一点就是将雷达点云信息与单目图像信息结合起来了,同时这种结合还保证了其速度与精度。关于其能够达到如此好的效果的原因,将在之后的文章中进行深入的分析。

总体结构

老规矩,了解一篇文章首先了解其总体的架构:

这里写图片描述

首先将雷达输入的3D点云投影到俯视图和鸟瞰图,接着用鸟瞰图通过卷积网络以及3D bounding-box回归之后生成低精度的3D proposal,然后将此3D proposal投影到俯视图,鸟瞰图和单目图像,通过一个融合网络,最后将其通过多任务损失函数进行训练。

实验结果

实验结果直接放图:

这里写图片描述

这里写图片描述

这里写图片描述

总结

该文章分析了MV3D实现的总体框架以及其当前的主要优势,由于对某些部分的实现暂时没有完全弄懂,同时处于整个框架的设计较为复杂,因此关于网络设计实现以及测试部分的内容将在后续的文章中进行分析。

参考文献

  1. Multi-View 3D Object Detection Network for Autonomous Driving
  2. A trial of implementation of MV3D
  3. Video of MV3D on CVPR17
  • 6
    点赞
  • 42
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值