python特征匹配_OpenCV-Python 系列之特征匹配

之前我们讨论过了众多的特征检测算法,这次我们来讨论如何运用相关的方法进行特征匹配。本次教程完全为实战教程,没有相关的算法原理介绍,大家可以轻松一下了。

蛮力匹配(ORB匹配)

Brute-Force 匹配非常简单,首先在第一幅图像中选择一个关键点然后依次与第二幅图像的每个关键点进行(改变)距离测试,最后返回距离最近的关键点。

对于 BF 匹配器,首先我们必须使用 cv2.BFMatcher ()创建 BFMatcher 对象。它需要两个可选的参数。

1. 第一个是 normType ,它指定要使用的距离测量,或在其他情况下,它是 cv2.NORM_L2 。它适用于 SIFT , SURF 等( cv2.NORM_L1 也在那里)。替代,如 ORB ,附图, BRISK 等,应使用 cv2.NORM_HAMMING ,使用汉明距离作为度量,如果 ORB 使用 WTA_K == 3or4 ,则应使用 cv2.NORM_HAMMING2 。

2.         crossCheck :最小数值为假。如果设置为 True ,则匹配条件就会更加严格,只有到 A 中的第 i 个特征点与 B 中的第 j 个特征点距离最近,并且 B 中的第 j 个特征点到 A 中的第 i 个特征点也是最近时才会返回最佳匹配,即这两个特征点要互相匹配才行。

两个重要的方法是 BFMatcher.match ()和 BFMatcher.knnMatch (),第一个返回最佳匹配,第二种方法返回 k 个最佳匹配,其中 k 由用户指定。

使用 cv2.drawMatches()来拆分匹配的点,它可以将两幅图像先行水平划分,然后在最佳匹配的点之间对齐直线。如果前面使用的 BFMatcher.knnMatch(),现在可以使用函数 cv2。 drawMatchsKnn 为每个关键点和它的一个最佳匹配如果要选择替换就要给函数重新定义一个指针。

我们来看代码:def BruteForce(img1,img2):

#启动ORB检测器

orb = cv2.ORB_create()

#使用ORB查找关键点和描述符

kp1,des1 = orb.detectAndCompute(img1,无)

kp2,des2 = orb.detectAndCompute(img2,无)

#创建BFMatcher对象

bf = cv2.BFMatcher(cv2.NORM_HAMMING,crossCheck = True)

#匹配描述符。

匹配= bf.match(des1,des2)

#按距离排序。

匹配=已排序(匹配,键= lambda x:x.distance)

#抽出前10场比赛。

img3 = cv2.drawMatches(img1,kp1,img2,kp2,matches [:10],无,标志= 2)

plt.imshow(img3),plt.show()  输出:

SIFT的特征匹配

关于 SIFT 的概念我们之前已经讨论过,现在来看相关的实战代码:def SIFT(img1,img2):

#启动SIFT检测器

筛选= cv2.xfeatures2d.SIFT_create()

#使用SIFT查找关键点和描述符

kp1,des1 = sift.detectAndCompute(img1,无)

kp2,des2 = sift.detectAndCompute(img2,无)

#具有默认 参数的   BFMatcher

bf = cv2.BFMatcher()

匹配= bf.knnMatch(des1,des2,k = 2)

#应用比例测试

好= []

对于 m,n个比赛:

如果 m.distance <0.6 * n.distance:

good.append([m])

#cv.drawMatchesKnn希望将列表作为匹配项。

img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,良好,无,标志= 2)

plt.imshow(img3),plt.show()

结果:

实际上我们可以看到,与蛮力匹配分类, SIFT 算法的特征匹配是十分强大的,效果较好。

SURF的特征匹配def SURF(img1,img2):

#启动SIFT检测器

冲浪= cv2.xfeatures2d.SURF_create()

#使用SIFT查找关键点和描述符

kp1,des1 = surf.detectAndCompute(img1,无)

kp2,des2 = surf.detectAndCompute(img2,无)

#具有默认 参数的   BFMatcher

bf = cv2.BFMatcher()

匹配= bf.knnMatch(des1,des2,k = 2)

#应用比例测试

好= []

对于 m,n个比赛:

如果 m.distance <0.6 * n.distance:

good.append([m])

#cv.drawMatchesKnn希望将列表作为匹配项。

img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,良好,无,标志= 2)

plt.imshow(img3),plt.show()

SIFT 算法的特征匹配相比较 SURF说,基本上效果差不多,但是速度不同。

基于FLANN的匹配器

FLANN 代表近似最近邻居的快速库。它包含一组算法,这些算法针对大型数据集中的快速最近邻搜索和高维特征进行了优化。对于大型数据集,它比 BFMatcher 工作得更好。

代码:def FLANN(img1,img2):

#启动SIFT检测器

筛选= cv2.xfeatures2d.SIFT_create()

#使用SIFT查找关键点和描述符

kp1,des1 = sift.detectAndCompute(img1,无)

kp2,des2 = sift.detectAndCompute(img2,无)

#FLANN参数

FLANN_INDEX_KDTREE = 1

index_params = dict(算法= FLANN_INDEX_KDTREE,树= 5)

search_params = dict(checks = 50)#或传递空字典

flann = cv2.FlannBasedMatcher(index_params,search_params)

匹配= flann.knnMatch(des1,des2,k = 2)

#只需要绘制好匹配项,因此创建一个蒙版

matchsMask = [[0,0]  for  i in range(len(matches))]

#根据Lowe的论文进行比率测试

对于 枚举(匹配)中的i,(m,n):

如果 m.distance <0.6 * n.distance:

matchsMask [i] = [1,0]

draw_params = dict(matchColor =(0,255,0),

singlePointColor =(255,0,0),

matchMask = matchesMask,

标志= 0)

img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,匹配,无,** draw_params)

plt.imshow(img3,),plt.show()

输出结果:

FLANN 属于单应性匹配,单应性指的是图像在投影发生了畸变后仍然能够有更高的检测和匹配准确率,它可以大概率上避免旋转和放缩带来的影响。

更多openvino技术信息可以入群交流~

OpenVINO技术交流群QQ223824636

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值