[论文解读]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features

文章链接:https://www.jianshu.com/p/b33c7c9ea2e7
以前好久的论文,这几天整理资料也翻出来了。应该是CVPR19的论文,讲的是同时做出来det和des。特征点定位精度不高,速度也很慢,不过对光照等鲁棒性非常高,如下图所示。

但是这个方法的弱点非常明显,定位精度不高,如下图红色圈出的地方,其实非常低的精度了。

实际上用这个进行重建的实验结果表示还不如SIFT好。
**总结:**坦白说这个方法几乎没有实际应用的场景,因为速度极其缓慢,而且精度很低,进行图像检索有更好的(DELF等),进行定位也有更快更好的(SIFT、ORB)。但是他有个特别好的地方是跳出了传统特征检测的范式,直接得到了det和des,从此以后很多工作都不会再专门学习一个keypoint detection去检测关键点位置尺度角度等等内容,而且这肯定也是必然趋势。另外还有很多其他类型的探索工作,推荐看看【Matching Features without Descriptors:Implicitly Matched Interest Points】【Long-term Visual Localization using Semantically Segmented Images】等挺多种的,不过D2Net属于其中结果最好的。

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值