模板匹配与卷积原理很像,模板在原图像上从原点开始滑动,计算模板与图像比较区域的差别程度,差异程度计算方法opencv中有六种,然后每次将计算结果放入一个矩阵中,作为结果输出,假如原图形大小为xy,模板大小为ab,则输出结果为(x-a+1)*(y-b+1)
差异程度计算方法 推荐归一化
- TM_SQDIFF 这类方法利用平方差来进行匹配,最好匹配为0.匹配越差,匹配值越大.
- TM_SQDIFF_NORMED 计算归一化平方
- TM_CCORR 这类方法采用模板和图像间的乘法操作,所以较大的数表示匹配程度较高,0标识最坏的匹配效果.
- TM_CCORR_NORMED 计算归一化相关性
- TM_CCOEFF 这类方法将模版对其均值的相对值与图像对其均值的相关值进行匹配,1表示完美匹配,-1表示糟糕的匹配,0表示没有任何相关性(随机序列).
- TM_CCOEFF_NORMED 计算归一化相关系数
openvc 中文API
http://www.opencv.org.cn/opencvdoc/2.3.2/html/doc/tutorials/tutorials.html
import cv2 # opencv 的读取格式是BGR
import matplotlib.pyplot as plt
import numpy as np
img = cv2.imread('lunkuo.png', 0)
template = cv2.imread('template.png',0)
h, w = template.shape[:2]
print(img.shape)
print(template.shape)
mathods=['cv2.TM_SQDIFF','cv2.TM_SQDIFF_NORMED','cv2.TM_CCORR','cv2.TM_CCORR_NORMED','cv2.TM_CCOEFF','cv2.TM_CCOEFF_NORMED']
for meth in mathods:
img2=img.copy()
# 匹配方法的真值,避免字符串
method = eval(meth)
res = cv2.matchTemplate(img, template, method)
min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
# 如果是平方差和归一化平方差取取最下值
if method in [cv2.TM_SQDIFF,cv2.TM_SQDIFF_NORMED]:
top_left=min_loc
else:
top_left=max_loc
bottom_right = (top_left[0]+w,top_left[0]+h)
# 画出匹配结果
cv2.rectangle(img2,top_left,bottom_right,255,3)
plt.subplot(121),plt.imshow(res,cmap='gray')
plt.xticks([]),plt.yticks([]) # 隐藏坐标系
plt.subplot(122),plt.imshow(img2,cmap='gray')
plt.xticks([]), plt.yticks([]) # 隐藏坐标系
plt.suptitle(meth)
plt.show()
匹配多个对象
可以自己去指定一个阈值,让每个计算结果去比较,符合条件即可。
img_rgb=cv2.imread('more.png')
mg1 = cv2.imread('more.png', 0)
template1 = cv2.imread('moreT.png',0)
h, w = template1.shape[:2]
res = cv2.matchTemplate(mg1, template1, cv2.TM_CCOEFF_NORMED)
threshld=0.8
loc=np.where(res >= threshld)
for pt in zip(*loc[::-1]):#*号表示可选参数
bottom_right=(pt[0]+w,pt[1]+h)
cv2.rectangle(img_rgb,pt,bottom_right,(0,0,255),2)
cv2.imshow('img_rgb',img_rgb)
cv2.waitKey(0)