D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features(2020)

本文主要目的是学习3d 点云的 detector & descriptor(之前的detector都是手工设计的,比如pointnet使用每个点,或者输入的是点云的小patch)

全文是在D2-net网络框架上的启发。

 

3. Joint Detection and Description Pipeline

    受到D2-net的启发,本文尝试在3d上进行detector & descriptor (由于3d点云的密度不均匀性质+系数性,传统的基于path的并不好(容易在稀疏的地方score特别高)

3.1. Dense Feature Description

    descriptor使用 Kernel Point Convolution (KP- Conv) ,一种带kernel的卷积,假设每个3d点都有一个feature(可以是sift也可以是别的,反正就是有feature),然后呢目的

是通过卷积得到local的feature(具有邻域信息),KP-COV使用如下公式:

 

解释:x表示3d point,f表示feature,g是kernel(你可以想象成高斯kernel,距离越近的点权重越大)

W就是权重,h是相关性函数(可以想象成高斯核)

!!!!!!以上是原始kp-cov,缺陷是:对于不同密度的点云是敏感的,那么本文将其归一化,使用如下公示:

 

3.2. Dense Keypoint Detection

    非极大值抑制使用softmax求概率最大点即可(也是在d2-net上的改进),只不过是在3d点云上进行的。

    但是使用softmax仍然存在分布不均匀的问题!!!!!!!基本上所有的3d上的learning操作都会存在分布不均匀问题!!!!!!!!!!!

    提出了一个密度不变的显著性分数来评估某个点相对于其局部邻域的显著性。

 

,其实这个意思是说,加入有一个feature map为N*C (N表示特征的个数,c表示feature),然后呢xi是一个keypoint当且仅当特征的某个维度在邻域内行和列都是最大的时候。。(其实就是选出一些比较有代表性的point(trick))

 

最后使用密度score评估keypoint

 

 

 

4. Joint Optimizating Detection & Description

 

Descriptor loss:训练的时候需要提供两组存在overlap并的点云并且得到其correspond,detector loos使用上述自适应的keypoint的sore    

 

 

学而不思则罔 思而不学则殆!!!!!!!!!!!!!!

使用在点云匹配上或者机遇点云识别上可能会好一些?毕竟也是类似2d学习出来detector & descriptor ?match->ransac icp(match可以得到初始match 更有利于icp收敛)

 

引用到2d层面上?没用 因为2d的detector本身就是密度均匀的

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值