第十四天 Opencv(5)图像金字塔以及模板匹配

一:图像金字塔

主要分为向上采样和向下采样

如下为高斯金字塔:

img=cv2.imread("AM.png")
up=cv2.pyrUp(img) # 先进行向上采样
up_down=cv2.pyrDown(up) # 再进行向下采样
cv_show(img-up_down,'img-up_down')

原理简述:

1. 向下采样就是先进行高斯卷积,卷积完之后的像素大小实际是没变的,然后将所有的偶数行和列去除,

像素值大小就会缩小一半。

2. 向上采样就很简单,每个像素点,例如10用0填充为,然后没个像素点再使用高斯卷积操作即可。

3. 拉普拉斯金字塔

down=cv2.pyrDown(img)
down_up=cv2.pyrUp(down)
l_1=img-down_up
cv_show(l_1,'l_1')

二:图像轮廓

cv2.findContours(img,mode,method)

mode:轮廓检索模式

  • RETR_EXTERNAL :只检索最外面的轮廓;
  • RETR_LIST:检索所有的轮廓,并将其保存到一条链表当中;
  • RETR_CCOMP:检索所有的轮廓,并将他们组织为两层:顶层是各部分的外部边界,第二层是空洞的边界;
  • RETR_TREE:检索所有的轮廓,并重构嵌套轮廓的整个层次; (我们一般只用它)

method:轮廓逼近方法

  • CHAIN_APPROX_NONE:以Freeman链码的方式输出轮廓,所有其他方法输出多边形(顶点的序列)。
  • CHAIN_APPROX_SIMPLE:压缩水平的、垂直的和斜的部分,也就是,函数只保留他们的终点部分。

这里是为了让图像更好识别,准确率更高,我们使用二值图像(先对图像处理,进行阈值操作)。

超过阈值部分取maxval(最大值),否则取0
img = cv2.imread('contours.png')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)
cv_show(thresh,'thresh')

binary就是thresh(上面做完二值的结果),counter放的轮廓信息(list),hierarchy是一个层级,目前用不到。

binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)

绘制轮廓:(先把img给copy一下,不然绘图结束后,img会变掉)

参数:-1代表默认画出所有轮廓,如果改成0/1/2/....表示按照顺序画第几个轮廓。(0,0,255)则表示按照BGR格式,2代表线条粗细。

#传入绘制图像,轮廓,轮廓索引,颜色模式,线条厚度
# 注意需要copy,要不原图会变。。。
draw_img = img.copy()
res = cv2.drawContours(draw_img, contours, -1, (0, 0, 255), 2)
cv_show(res,'res')
draw_img = img.copy()
res = cv2.drawContours(draw_img, contours, 0, (0, 0, 255), 2)
cv_show(res,'res')

(1)图像轮廓特征。

需要将部分轮廓先取出来. contours[0]

cnt = contours[0]
#面积
cv2.contourArea(cnt)
#周长,True表示闭合的
cv2.arcLength(cnt,True)

(2)轮廓近似

img = cv2.imread('contours2.png')

gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)
binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)
cnt = contours[0]

draw_img = img.copy()
res = cv2.drawContours(draw_img, [cnt], -1, (0, 0, 255), 2)
cv_show(res,'res')

轮廓近似使用cv2.approxPolyDp函数,需要指定cnt(要去近似的图像),epsilon设置的阈值。 

epsilon = 0.15*cv2.arcLength(cnt,True) 
approx = cv2.approxPolyDP(cnt,epsilon,True)

draw_img = img.copy()
res = cv2.drawContours(draw_img, [approx], -1, (0, 0, 255), 2)
cv_show(res,'res')

 (3)边界矩形以及外接圆

img = cv2.imread('contours.png')

gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)
binary, contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)
cnt = contours[0]

x,y,w,h = cv2.boundingRect(cnt)
img = cv2.rectangle(img,(x,y),(x+w,y+h),(0,255,0),2)
cv_show(img,'img')
area = cv2.contourArea(cnt)
x, y, w, h = cv2.boundingRect(cnt)
rect_area = w * h
extent = float(area) / rect_area
print ('轮廓面积与边界矩形比',extent)
(x,y),radius = cv2.minEnclosingCircle(cnt) 
center = (int(x),int(y)) 
radius = int(radius) 
img = cv2.circle(img,center,radius,(0,255,0),2)
cv_show(img,'img')

 三:模板匹配

前提是需要一张类似或相同的模板。

 

模板匹配和卷积原理很像,模板在原图像上从原点开始滑动,计算模板与(图像被模板覆盖的地方)的差别程度,这个差别程度的计算方法在opencv里有6种,然后将每次计算的结果放入一个矩阵里,作为结果输出。假如原图形是AxB大小,而模板是axb大小,则输出结果的矩阵是(A-a+1)x(B-b+1)

# 模板匹配
img = cv2.imread('lena.jpg', 0)
template = cv2.imread('face.jpg', 0)
h, w = template.shape[:2]
  • TM_SQDIFF:计算平方不同,计算出来的值越小,越相关
  • TM_CCORR:计算相关性,计算出来的值越大,越相关
  • TM_CCOEFF:计算相关系数,计算出来的值越大,越相关
  • TM_SQDIFF_NORMED:计算归一化平方不同,计算出来的值越接近0,越相关
  • TM_CCORR_NORMED:计算归一化相关性,计算出来的值越接近1,越相关
  • TM_CCOEFF_NORMED:计算归一化相关系数,计算出来的值越接近1,越相关
methods = ['cv2.TM_CCOEFF', 'cv2.TM_CCOEFF_NORMED', 'cv2.TM_CCORR',
           'cv2.TM_CCORR_NORMED', 'cv2.TM_SQDIFF', 'cv2.TM_SQDIFF_NORMED']
res = cv2.matchTemplate(img, template, 1)
res.shape

上面代码的1代表第一个methods里的cv2.TM_SQDIFF,res大小为

这里主要想得到的参数min_val===》代表左上角红色点的匹配相似度的结果值,min_loc表示红色点的像素位置。知道位置和w,h就可以得到框的位置。

min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
for meth in methods:
    img2 = img.copy()

    # 匹配方法的真值
    method = eval(meth)
    print (method)
    res = cv2.matchTemplate(img, template, method)
    min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)

    # 如果是平方差匹配TM_SQDIFF或归一化平方差匹配TM_SQDIFF_NORMED,取最小值
    if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]:
        top_left = min_loc
    else:
        top_left = max_loc
    bottom_right = (top_left[0] + w, top_left[1] + h)

    # 画矩形
    cv2.rectangle(img2, top_left, bottom_right, 255, 2)

    plt.subplot(121), plt.imshow(res, cmap='gray')
    plt.xticks([]), plt.yticks([])  # 隐藏坐标轴
    plt.subplot(122), plt.imshow(img2, cmap='gray')
    plt.xticks([]), plt.yticks([])
    plt.suptitle(meth)
    plt.show()

匹配多个对象:

img_rgb = cv2.imread('mario.jpg')
img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_BGR2GRAY)
template = cv2.imread('mario_coin.jpg', 0)
h, w = template.shape[:2]

res = cv2.matchTemplate(img_gray, template, cv2.TM_CCOEFF_NORMED)
threshold = 0.8
# 取匹配程度大于%80的坐标
loc = np.where(res >= threshold)
for pt in zip(*loc[::-1]):  # *号表示可选参数
    bottom_right = (pt[0] + w, pt[1] + h)
    cv2.rectangle(img_rgb, pt, bottom_right, (0, 0, 255), 2)

cv2.imshow('img_rgb', img_rgb)
cv2.waitKey(0)

 

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: opencv金字塔模板匹配是一种基于图像金字塔模板匹配算法,可以用来在图像中寻找与给定模板最相似的区域。下面简单介绍一下其工作原理。 首先,图像金字塔是一种多尺度表示方法,通过对原图像进行多次降采样得到一系列不同分辨率的图像。这样可以使得模板匹配算法在不同尺度下进行搜索,从而增加算法的鲁棒性。 在进行金字塔模板匹配时,首先需要定义一个固定大小的模板,然后通过对原图像进行金字塔处理,得到一系列尺度变化的图像。接着,在每个尺度的图像中,通过滑动窗口的方式在图像上移动,并计算模板与窗口区域的相似度。常用的相似度度量方法有平方差和归一化互相关等。 找到最相似的区域后,可以通过绘制矩形框来标记匹配结果。在opencv中,可以使用`cv2.matchTemplate`函数进行金字塔模板匹配,该函数会返回相似度最高的匹配结果的位置信息。 金字塔模板匹配在很多场景中都有广泛的应用,比如人脸识别、目标跟踪等。通过对图像进行金字塔处理,可以提高匹配算法的鲁棒性和准确性。然而,金字塔模板匹配算法也存在一些问题,比如计算复杂度较高,需要耗费较多的时间和计算资源。因此,在实际应用中,需要根据具体情况进行权衡和选择。 ### 回答2: OpenCV金字塔模板匹配是一种图像处理技术,用于在不同尺度的图像中寻找模板的匹配位置。 在金字塔模板匹配算法中,首先构建图像金字塔图像金字塔是将原始图像逐层降采样得到一系列图像的集合。每一层图像都是前一层图像的1/4大小,直到达到金字塔的最底层。 接下来,将模板图像也进行相同的降采样,得到对应的金字塔模板。然后,从图像金字塔的最底层开始,使用模板和当前金字塔图像进行匹配。 匹配过程中,可以采用滑动窗口的方式,以不同尺度遍历整个金字塔图像。在每一个位置,通过计算模板和当前窗口的相似度,来评估匹配程度。常用的相似度度量方法包括平方差、相关性、相互信息等。 当找到最佳匹配位置后,可以通过绘制边界框或在该位置标记出来来显示匹配结果。 金字塔模板匹配在许多计算机视觉应用中都得到了广泛的应用,例如目标检测、人脸识别、图像拼接等。它可以有效地处理尺寸变化、旋转变换等对模板匹配造成的困扰。 总结来说,opencv金字塔模板匹配是通过构建图像金字塔,在多个尺度下进行滑动窗口的模板匹配,以寻找匹配位置。它是一种强大的图像处理技术,可以在不同尺度下鲁棒地进行目标检测和匹配。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值