【论文翻译】《ASLFeat: Learning Local Features of Accurate Shape and Localization》

《ASLFeat: Learning Local Features of Accurate Shape and Localization》论文翻译
标题:ASLFeat: 学习精确形状和定位的局部特征

摘要

这项工作的重点在于减轻联合学习局部特征检测器和描述符的两个限制。首先,在密集特征提取过程中,往往忽略了对特征点局部形状(尺度、方向等)的估计能力,而形状感知是获取更强几何不变性的关键。其次,检测关键点的定位精度不足以可靠地恢复摄像机几何图形,成为三维重建等任务的瓶颈。在这篇文章中,我们提出了一个有三种轻量级但有效的修改来减轻上述问题的壮举。首先,利用可变形卷积网络进行密集估计并应用局部变换。其次,我们利用固有特征层次来恢复空间分辨率和低层次细节来精确定位关键点。最后,我们使用峰值测量来关联特征响应和衍生指标检测分数。每一个修改的效果都经过了彻底的研究和在各种实际情况下广泛的评估。我们报道了最新的结果,证明了我们方法的优越性。

1、介绍

设计强大的局部特征是广泛的计算机视觉任务的必要基础。在过去几年中,局部特征检测器和描述符的联合学习越来越受欢迎,在实际应用中取得了令人满意的结果。然而,我们认为有两个限制可能决定了性能的进一步提高:1)缺乏获得更强几何不变性的特征点的形状感知,以及2)缺乏鲁棒地求解相机几何的关键点定位精度。

传统上,局部形状是通过手工的比例/旋转估计[17,29]或仿射形状适应[20]来参数化的,而最近,数据驱动的方法[23,22,39]已经出现,它们建立单独的网络来回归形状参数,然后在特征描述之前变换面片输入。由于使用关键点检测器的联合学习越来越普遍[6,25,27,7,4],最近的研究重点已经转移到从图像输入中密集提取特征的框架上,而没有给出预定义的关键点,因此先前的逐块形状估计变得不适用。作为一种替代方案, LF-Net[25]通过空间变换网络[12]提取密集特征并变换中间特征图,然而需要多次前向传递,并且只有形状参数的稀疏预测实际上是可行的。在这种观点下,仍然缺乏能够在密集预测框架中实现有效的局部形状估计的解决方案。

此外,在解决几何敏感问题时,学习到的关键点的定位精度仍然受到关注。例如,LF-Net [25]和D2-Net [7]经验上在两视图匹配中产生低精度,或者在从运动到结构(SfM)任务中引入大的重投影误差,这实质上可以归因于空间精度的缺乏,因为检测是从低分辨率特

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值