空间中的语义直线检测_ImVoteNet: 用2D图片信息 优化 3D点云物体检测(CVPR2020)...

ImVoteNet是CVPR2020上提出的一种结合2D图像信息来优化3D点云物体检测的方法。通过利用2D图像的几何、语义和纹理信息,它在VoteNet的基础上提升了点云物体检测的性能。核心思想是将2D图像信息融入3D点云的投票过程,从而缩小搜索空间并提高准确性。
摘要由CSDN通过智能技术生成

a9dcd817066e643b29c6342b84e1b6bd.png

本文介绍一篇点云物体检测的文章。与当前大部分只从3D点云得出检测结果的算法不同,文章提出的算法,不仅使用3D点云,还使用了对应的2D图片的相关信息(2D物体几何坐标、类别、feature等)。2D与3D结合后,性能得到了一些提升。论文地址:

ImVoteNet: Boosting 3D Object Detection in Point Clouds with Image Votes​arxiv.org

1. 核心思想

充分利用2D图片中的几何坐标、语义、像素纹理信息,来辅助3D点云物体检测。

2. VoteNet回顾

这篇文章,可以认为是VoteNet的升级版。这里先对VoteNet进行简单的介绍回顾。

VoteNet以点云作为输入,输出预测出来的物体类别、bounding box信息。其网络结构图如下:

42a36c59a5b03d6c3ab20096b8e1bbc7.png

大概流程为:

  1. 输入点云:
  2. 使用一个backbone network(PointNet++)下采样出
    个点并计算出每个点的feature。论文中把这些点称为
    Seed点。每个Seed点的feature的长度是
    ,加上点的坐标,输入为:
  3. 用一个共享的MLP计算每个点Vote出来的中心点的结果,输出同样为
    。其中,
    表示每个点vote出来的“
    该点所属物体的中心点的位置坐标“
    表示每个点vote出来的
    “该点所属物体的中心点的feature“。具体操作上,是先vote出来所属物体中心点的坐标和feature,相对于该点的偏移量,然后根据偏移量,计算出最终的坐标和feature。
  4. 用FPS从
    个点中采样出
    个点。分别以
    个点为圆心,
    为半径,找出
    个球体范围内的点,分别为:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值