特征匹配之Brute-Force 匹配和FLANN 匹配器

使用 OpenCV 中的蛮力(Brute-Force)匹配和 FLANN 匹配。
1:Brute-Force 匹配的基础
蛮力匹配器是很简单的。首先在第一幅图像中选取一个关键点然后依次与第二幅图像的每个关键点进行(描述符)距离测试,最后返回距离最近的关键点。
对于 BF 匹配器,我们首先要使用 cv2.BFMatcher() 创建一个 BF-Matcher 对象。它有两个可选参数。第一个是 normType。它是用来指定要使用的距离测试类型。默认值为 cv2.Norm_L2。这很适合 SIFT 和 SURF 等(c2.NORM_L1 也可以)。对于使用二进制描述符的 ORB,BRIEF,BRISK算法等,要使用 cv2.NORM_HAMMING,这样就会返回两个测试对象之间的汉明距离。如果 ORB 算法的参数设置为 V T A_K==3 或 4,normType就应该设置成 cv2.NORM_HAMMING2。
第二个参数是布尔变量 crossCheck,默认值为 False。如果设置为True,匹配条件就会更加严格,只有到 A 中的第 i 个特征点与 B 中的第 j 个特征点距离最近,并且 B 中的第 j 个特征点到 A 中的第 i 个特征点也是最近(A 中没有其他点到 j 的距离更近)时才会返回最佳匹配(i,j)。也就是这两个特征点要互相匹配才行。这样就能提供统一的结果,这可以用来替代 D.Lowe在 SIFT 文章中提出的比值测试方法。
BFMatcher 对象具有两个方法, BFMatcher.match() 和 BFMatcher.knnMatch()。第一个方法会返回最佳匹配。第二个方法为每个关键点返回 k 个最佳匹配(降序排列之后取前 k 个),其中 k 是由用户设定的。如果除了匹配之外还要做其他事情的话可能会用上(比如进行比值测试)。
就 像 使 用 cv2.drawKeypoints() 绘 制 关 键 点 一 样, 我 们 可 以 使 用cv2.drawMatches() 来绘制匹配的点。它会将这两幅图像先水平排列,然后在最佳匹配的点之间绘制直线(从原图像到目标图像)。如果前面使用的是 BF-Matcher.knnMatch(),现在我们可以使用函数 cv2.drawMatchsKnn为每个关键点和它的 k 个最佳匹配点绘制匹配线。如果 k 等于 2,就会为每个关键点绘制两条最佳匹配直线。如果我们要选择性绘制话就要给函数传入一个掩模。

2:FLANN 匹配器
FLANN 是快速最近邻搜索包(Fast_Library_for_Approximate_Nearest_Neighbors)的简称。它是一个对大数据集和高维特征进行最近邻搜索的算法的集合,而且这些算法都已经被优化过了。在面对大数据集时它的效果要好于 BFMatcher。
使用 FLANN 匹配,我们需要传入两个字典作为参数。这两个用来确定要使用的算法和其他相关参数等。第一个是 IndexParams。indexparams = dict(algorithm = FLANNINDEX K DT REE, trees = 5)
各种不同算法的信息可以在 FLANN 文档中找到。
第二个字典是 SearchParams。用它来指定递归遍历的次数。值越高结 果 越 准 确, 但是消耗的时间也越多。 如果你想修改这个值, 传入参 数:searchparams = dict(checks = 100)。

使用一个查询图像,在其中找到一些特征点(关键点),我们又在另一幅图像中也找到了一些特征点,最后对这两幅图像之间的特征点进行匹配。简单来说就是:我们在一张杂乱的图像中找到了一个对象(的某些部分)的位置。这些信息足以帮助我们在目标图像中准确的找到(查询图像)对象。
为了达到这个目的可以使用 calib3d 模块中的 cv2.findHomography()函数。如果将这两幅图像中的特征点集传给这个函数,他就会找到这个对象的透视图变换。然后就可以使用函数cv2.perspectiveTransform() 找到这个对象了。至少要 4 个正确的点才能找到这种变换。
我们已经知道在匹配过程可能会有一些错误,而这些错误会影响最终结果。为了解决这个问题,算法使用 RANSAC 和 LEAST_MEDIAN(可以通过参数来设定)。所以好的匹配提供的正确的估计被称为 inliers,剩下的被称为outliers。cv2.findHomography() 返回一个掩模,这个掩模确定了 inlier 和outlier 点。

SIFT特征提取原理介绍:http://blog.csdn.net/chuhang_zhqr/article/details/50890546

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
KNN匹配和FLANN匹配是两种不同的特征匹配方法,它们都可以用于ORB特征检测和暴力匹配。 在ORB特征检测中,我们首先需要提取图像中的ORB特征点,然后使用暴力匹配或者KNN匹配或者FLANN匹配匹配这些特征点。 BF暴力匹配是最简单的匹配方法,它会将每个特征点与所有特征点进行比较,找到最佳匹配。而KNN匹配和FLANN匹配会更加智能一些,它们会根据特征点之间的距离和相似性来匹配特征点,从而提高匹配的准确性和效率。 KNN匹配会选择每个特征点的k个最佳匹配,然后通过比较这些匹配的距离和相似性来选择最佳匹配。FLANN匹配则是使用快速最近邻搜索算法来查找最佳匹配,这个算法可以在大规模数据集上运行得非常快。 在Python中使用OpenCV实现ORB特征检测和KNN匹配或FLANN匹配需要用到cv2模块中的ORB和FlannBasedMatcher类。具体的代码实现可以参考以下示例: ```python import cv2 # 读取图像 img1 = cv2.imread('image1.jpg', cv2.IMREAD_GRAYSCALE) img2 = cv2.imread('image2.jpg', cv2.IMREAD_GRAYSCALE) # 初始化ORB检测 orb = cv2.ORB_create() # 提取图像中的ORB特征点和描述符 kp1, des1 = orb.detectAndCompute(img1, None) kp2, des2 = orb.detectAndCompute(img2, None) # 初始化KNN匹配 matcher = cv2.DescriptorMatcher_create(cv2.DESCRIPTOR_MATCHER_BRUTEFORCE_HAMMING) # 使用KNN匹配进行匹配 matches = matcher.knnMatch(des1, des2, k=2) # 使用FLANN匹配进行匹配 flann = cv2.FlannBasedMatcher() matches = flann.knnMatch(des1, des2, k=2) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值