OpenCv—特征匹配
- 特征匹配的两种算法:
- BF:暴力特征匹配方法,精度高
- FLANN:最快邻近区特征匹配方法,速度快,精度差
1. BF:暴力特征匹配
- 暴力特征匹配方法原理:使用第一组中的每个特征的描述子与第二组中的所有特征描述子进行匹配,计算他们的差距,然后将一个最接近的一个匹配返回
- 步骤
- 1.创建匹配器,
BFMatcher(normType,crossCheck)
normType
:NORM_L1,NORM_L2,HAMMING1…crossCheck
:是否进行交叉匹配,默认为False
- 2.进行特征匹配,
bf.match(des1,des2)
- match方法,参数为
SIFT
,SURF
,ORB
等计算出的描述子
- match方法,参数为
- 3.绘制匹配点,
cv2.drawMatches(img1,kp1,img2,kp2...)
- 搜索
img1
,kp1
- 匹配
img2
,kp2
- match()方法返回匹配结果
- 搜索
- 1.创建匹配器,
import cv2
img1 = cv2.imread('../../my_work/01.png')
img2 = cv2.imread('../../my_work/01_t.png')
gray1 = cv2.cvtColor(img1,cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2,cv2.COLOR_BGR2GRAY)
# 创建sift对象
sift = cv2.SIFT_create()
# 进行检测
kp1,des1 = sift.detectAndCompute(gray1,None)
kp2,des2 = sift.detectAndCompute(gray2,None)
# kp是一个列表,里面存放的是封装的KeyPoint对象
# 特征匹配
bf = cv2.BFMatcher(cv2.NORM_L1)
match = bf.match(des1,des2)
# 绘制关键点
dst = cv2.drawMatches(img1,kp1,img2,kp2,match,None)
cv2.imshow('dst',dst)
cv2.waitKey()
cv2.destroyAllWindows()
2. FLANN特征匹配
-
原理:取图像 A 的一个特征,搜索它到图像 B 距离最近的两个特征,距离分别记为d1和d2,只有当d1/d2小于某个阈值时,才认为是 “good match”。
-
步骤
-
1.创建匹配器,
FlannBasedMatcher(index_params ,search_params )
index_params
字典:匹配算法KDTREE、LSHsearch_params
字典:指定KDTREE算法中遍历树的次数- KDTREE
index_params = dict(algorithm = FLANN_INDEX_KDTREE,trees = 5)
search_params = dict(checks=50)
-
2.进行特征匹配,
flann.match
/KnnMatch(des1,des2,k)
- KnnMatch方法:
des
:参数为SIFT,SURF,ORB等计算的描述子,k
:表示取欧氏距离最近的前k个关键点,返回结果是DMatch对象- DMatch内容:
distance
:描述子之间的距离,越低越好;queryIdx
:第一个图像的描述子索引值;trainIdx
:第二个图像的描述子索引值;imgIdx
:第二幅图的索引值。
-
3.绘制匹配点,
cv2.drawMatches(...)
/cv2.drawMatchesKnn(...)
- 搜索
img1
,kp1
- 匹配
img2
,kp2
- match()方法返回匹配结果
- 搜索
import cv2
img1 = cv2.imread('../../my_work/01.png')
img2 = cv2.imread('../../my_work/01_t.png')
gray1 = cv2.cvtColor(img1,cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2,cv2.COLOR_BGR2GRAY)
# 创建sift对象
sift = cv2.SIFT_create()
# 进行检测、kp是一个列表,里面存放的是封装的KeyPoint对象
kp1,des1 = sift.detectAndCompute(gray1,None)
kp2,des2 = sift.detectAndCompute(gray2,None)
# 特征匹配
index_params = dict(algorithm = 1,trees =5)
search_params = dict(check = 50)
flann = cv2.FlannBasedMatcher(index_params,search_params)
matchs = flann.knnMatch(des1,des2,k=2)
good = []
for i ,(m,n) in enumerate(matchs):
if m.distance < 0.7*n.distance:
good.append(m)
# 绘制关键点
dst = cv2.drawMatchesKnn(img1,kp1,img2,kp2,[good],None)
cv2.imshow('dst',dst)
cv2.waitKey()
cv2.destroyAllWindows()