编辑:计算机视觉工坊
0. 这篇文章干了啥?
特征匹配旨在建立图像之间的对应关系,这在诸如即时定位与地图构建(SLAM)、运动恢复结构(SfM)和视觉定位等众多应用中至关重要。然而,由于存在匹配噪声(包括尺度变化、视角和光照变化、重复模式以及纹理较差等问题),实现精确的点匹配仍然是一个挑战。
近年来,基于学习的特征匹配取得了显著进展。学习检测器、描述符和匹配器的出现彻底改变了传统的稀疏匹配方法。同时,基于学习的半密集和密集方法通过在整个图像上进行密集特征比较,进一步在精度上与其稀疏对应方法拉开了显著差距。然而,所有这些匹配方法都面临着一个共同的障碍:匹配冗余。从本质上讲,在不相关的图像区域中,基于学习的特征之间的相互作用容易受到匹配噪声的影响,从而降低这些方法的匹配性能。
直观上,大多数匹配冗余可以通过高级图像理解来有效识别,并且只有强相关的局部区域(或区域)才需要通过密集特征比较来确定精确匹配。因此,最近的方法在匹配之前进行基于学习的重叠分割。然而,隐式学习需要不可重复使用的计算开销,并且在详细匹配过程中重叠区域中的冗余仍然存在。为了解决这些问题,一些工作转向明确的语义先验。与手动指定主题数量来分组特征块不同,SGAM提出的区域到点匹配(A2PM)框架提供了一种更直观的方式来减少匹配冗余。具体而言,该框架首先建立语义区域匹配,在语义