OpenCV笔记02

模板匹配–单目标匹配

import cv2
target = cv2.imread("sources/target.jpg")
template = cv2.imread("sources/template.jpg")
height, width = template.shape[:2]
result = cv2.matchTemplate(target, template, cv2.TM_SQDIFF_NORMED)  # 执行模板匹配,采用的匹配方式cv2.TM_SQDIFF_NORMED
cv2.normalize(result, result, 0, 1, cv2.NORM_MINMAX, -1)  # 归一化处理
min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(result)  # 寻找矩阵(一维数组当做向量,用Mat定义)中的最大值和最小值的匹配结果及其位置
strmin_val = str(min_val)  # 匹配值转换为字符串
# 对于cv2.TM_SQDIFF及cv2.TM_SQDIFF_NORMED方法min_val越趋近与0匹配度越好,匹配位置取min_loc
# 对于其他方法max_val越趋近于1匹配度越好,匹配位置取max_loc
cv2.rectangle(target, min_loc, (min_loc[0]+width, min_loc[1]+height), (0, 0, 225), 2)
# 绘制矩形边框,将匹配区域标注出来
# min_loc:矩形定点
# (min_loc[0]+width,min_loc[1]+height):矩形的宽高
# (0,0,225):矩形的边框颜色;2:矩形边框宽度
cv2.imshow("MatchResult----MatchingValue="+strmin_val, target)
cv2.waitKey()
cv2.destroyAllWindows()

cv2.matchTemplate

目标匹配函数

参数

image:待搜索图像
templ:模板图像
result:匹配结果
method:计算匹配程度的方法

匹配方法

关于匹配方法,使用不同的方法产生的结果的意义可能不太一样,有些返回的值越大表示匹配程度越好,而有些方法返回的值越小表示匹配程度越好。

关于参数 method:
CV_TM_SQDIFF 平方差匹配法:该方法采用平方差来进行匹配;最好的匹配值为0;匹配越差,匹配值越大。
CV_TM_CCORR 相关匹配法:该方法采用乘法操作;数值越大表明匹配程度越好。
CV_TM_CCOEFF 相关系数匹配法:1表示完美的匹配;-1表示最差的匹配。
CV_TM_SQDIFF_NORMED 归一化平方差匹配法

CV_TM_CCORR_NORMED 归一化相关匹配法

CV_TM_CCOEFF_NORMED 归一化相关系数匹配法

cv2.normalize

归一化函数(归一化就是要把需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内)

参数

src-输入数组。

dst-与SRC大小相同的输出数组。

α-范数值在范围归一化的情况下归一化到较低的范围边界。

β-上限范围在范围归一化的情况下;它不用于范数归一化。

范式-规范化类型(见下面的细节)。

dType——当输出为负时,输出数组具有与SRC相同的类型;否则,它具有与SRC相同的信道数和深度=CVH-MatthAsHead(DyType)。

面具-可选的操作面具。

四种归一化方式

NORM_MINMAX:数组的数值被平移或缩放到一个指定的范围,线性归一化。
NORM_INF: 归一化数组的(切比雪夫距离)L∞范数(绝对值的最大值)
NORM_L1 : 归一化数组的(曼哈顿距离)L1-范数(绝对值的和)
NORM_L2: 归一化数组的(欧几里德距离)L2-范数

cv2.minMaxLoc

假设有一个矩阵a,现在需要求这个矩阵的最小值,最大值,并得到最大值,最小值的索引。咋一看感觉很复杂,但使用这个cv2.minMaxLoc()函数就可全部解决。函数返回的四个值就是上述所要得到的。

模板匹配–多目标匹配

在上面那些代码基础上添加如下代码:

temp_loc = min_loc  # 初始化位置参数
other_loc = min_loc
numOfloc = 1
threshold = 0.01  # 对于cv2.TM_SQDIFF及cv2.TM_SQDIFF_NORMED方法设置匹配阈值为0.01
loc = numpy.where(result < threshold)  # 第一次筛选----规定匹配阈值,将满足阈值的从result中提取出来
for other_loc in zip(*loc[::-1]):  # 遍历提取出来的位置
    if (temp_loc[0] + 5 < other_loc[0]) or (temp_loc[1] + 5 > other_loc[1]):  # 第二次筛选----将位置偏移小于5个像素的结果舍去
        numOfloc += 1
        temp_loc = other_loc
        cv2.rectangle(target, other_loc, (other_loc[0]+width, other_loc[1]+height), (0, 0, 225), 2)
str_numOfloc = str(numOfloc)
cv2.imshow("MatchResult----MatchingValue="+strmin_val+"----NumberOfPosition="+str_numOfloc, target)

numpy.where

有两种用法:

  1. np.where(condition, x, y)
    满足条件(condition),输出x,不满足输出y。

  2. np.where(condition)
    只有条件 (condition),没有x和y,则输出满足条件 (即非0) 元素的坐标 (等价于numpy.nonzero)。这里的坐标以tuple的形式给出,通常原数组有多少维,输出的tuple中就包含几个数组,分别对应符合条件元素的各维坐标。

python3的zip

zip() 函数用于将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的对象,这样做的好处是节约了不少的内存。

我们可以使用 list() 转换来输出列表。

如果各个迭代器的元素个数不一致,则返回列表长度与最短的对象相同,利用 * 号操作符,可以将元组解压为列表。

>>> a = [1, 2, 3]
>>> b = [4, 5, 6]
>>> c = [7, 8, 9, 10]
>>> zip(a, b)
<zip object at 0x0000021E31A2CD48>
>>> list(zip(a, b))
[(1, 4), (2, 5), (3, 6)]
>>> list(zip(a, c))
[(1, 7), (2, 8), (3, 9)]
>>> d, e = zip(*zip(a, b))
>>> d
(1, 2, 3)
>>> e
(4, 5, 6)
>>> list(d)
[1, 2, 3]
>>> list(e)
[4, 5, 6]

[::-1]

取从后向前(相反)的元素,(切片翻转)

BFMatching描述特征点

(结果不准确)

在这里插入图片描述

import cv2
from matplotlib import pyplot as plt
template = cv2.imread("sources/template2.jpg", 0)
target = cv2.imread("sources/target.jpg", 0)  # 格式为灰度图
orb = cv2.ORB_create()  # 建立orb特征检测器
kp1, des1 = orb.detectAndCompute(template, None)  # 计算template中的特征点和描述符
kp2, des2 = orb.detectAndCompute(target, None)
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)  # 建立匹配关系
matches = bf.match(des1, des2)  # 匹配描述符
matches = sorted(matches, key=lambda x: x.distance)  # 根据距离来排序
result = cv2.drawMatches(template, kp1, target, kp2, matches[:40], None, flags=2)  # 画出匹配关系
plt.imshow(result), plt.show()  # matplotlib描绘出来

基于FLANN的匹配器描述特征点

# -*- coding: utf-8-*-
import cv2
from matplotlib import pyplot as plt
queryImage = cv2.imread("sources/template2.jpg", 0)
trainingImage = cv2.imread("sources/target.jpg", 0)
sift = cv2.xfeatures2d.SIFT_create()  # 创建sift检测器
kp1, des1 = sift.detectAndCompute(queryImage, None)
kp2, des2 = sift.detectAndCompute(trainingImage, None)
FLANN_INDEX_KDTREE = 0  # 设置Flann参数
indexParams = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
searchParams = dict(checks=50)
flann = cv2.FlannBasedMatcher(indexParams, searchParams)
matches = flann.knnMatch(des1, des2, k=2)
matchesMask = [[0, 0] for i in range(len(matches))]  # 设置初始匹配值
for i, (m, n) in enumerate(matches):
    if m.distance < 0.5 * n.distance:  # 舍弃小于0.5的匹配结果
        matchesMask[i] = [1, 0]
drawParams = dict(matchColor=(0, 0, 255), singlePointColor=(255, 0, 0), matchesMask=matchesMask, flags=0)
# 给特征点和匹配的线定义颜色
resultImage = cv2.drawMatchesKnn(queryImage, kp1, trainingImage, kp2, matches, None, **drawParams)
plt.imshow(resultImage,), plt.show()

1.FLANN代表近似最近邻居的快速库。它代表一组经过优化的算法,用于大数据集中的快速最近邻搜索以及高维特征。
2.对于大型数据集,它的工作速度比BFMatcher快。
3.需要传递两个字典来指定要使用的算法及其相关参数等
对于SIFT或SURF等算法,可以用以下方法:
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
对于ORB,可以使用以下参数:
index_params= dict(algorithm = FLANN_INDEX_LSH,
table_number = 6, # 12 这个参数是searchParam,指定了索引中的树应该递归遍历的次数。值越高精度越高
key_size = 12, # 20
multi_probe_level = 1) #2

dict

用于创建一个新的字典,返回一个新的字典
语法:dict(key/value)
参数说明:key/value – 用于创建字典的键/值对,可以表示键/值对的方法有很多。

>>> dict()  # 1、传一个空字典
{}
>>> dict({'name': 'li', 'age': 24})  # 2、传一个字典
{'name': 'li', 'age': 24}
>>> dict(user='admin', password=123456)  # 3、传关键字
{'user': 'admin', 'password': 123456}
>>> dict([('student', 1), ('teacher', 2)])  # 4、传一个包含一个或多个元组的列表
{'student': 1, 'teacher': 2}
>>> dict(zip(['a', 'A'], [3, 4]))  # 5、传一个zip()函数
{'a': 3, 'A': 4}

knnMatch

返回的DMatch类型的数据结构(一组返回的两个DMatch类型)
这两个DMatch数据类型是两个与原图像特征点最接近的两个特征点(match返回的是最匹配的)。只有这俩个特征点的欧式距离小于一定值的时候才会认为匹配成功。例如:原图像特征点与两个绿色苹果相匹配,那么就会认为这个特征点是绿苹果,但若与原图像最接近的匹配分别是一个绿苹果和一个红苹果,那么就会认为匹配是失败的,即没有相匹配的特征点。

enumerate

enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出数据和数据下标,一般用在 for 循环当中。

基于FLANN的匹配器定位图片

在上面那些代码基础上添加如下代码:

MIN_MATCH_COUNT = 10  # 设置最低特征点匹配数量为10
good = []  
for m, n in matches:  # 舍弃大于0.7的匹配
    if m.distance < 0.7 * n.distance:
        good.append(m)
if len(good) > MIN_MATCH_COUNT:  # 获取关键点的坐标
    src_pts = np.float32([kp1[m.queryIdx].pt for m in good]).reshape(-1, 1, 2)
    dst_pts = np.float32([kp2[m.trainIdx].pt for m in good]).reshape(-1, 1, 2)
    M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0)  #
    matchesMask = mask.ravel().tolist()
    h, w = template.shape
    # 使用得到的变换矩阵对原图像的四个角进行变换,获得在目标图像上对应的坐标
    pts = np.float32([[0, 0], [0, h - 1], [w - 1, h - 1], [w - 1, 0]]).reshape(-1, 1, 2)
    dst = cv2.perspectiveTransform(pts, M)
    cv2.polylines(target, [np.int32(dst)], True, 0, 2, cv2.LINE_AA)
else:
    print("Not enough matches are found - %d/%d" % (len(good), MIN_MATCH_COUNT))
    matchesMask = None
draw_params = dict(matchColor=(0, 255, 0),
                   singlePointColor=None,
                   matchesMask=matchesMask,
                   flags=2)
result = cv2.drawMatches(template, kp1, target, kp2, good, None, **draw_params)
plt.imshow(result, 'gray')
plt.show()

reshape

用于改变数组的形状,-1代表的意思:不知道分多少行,但必须分成xxx

cv2.findHomography

如果我们传了两个图像里的点集合,它会找到那个目标的透视转换。
(找到两个平面之间的转换矩阵)

ravel

降维

>>> x = np.array([[1, 2, 3], [4, 5, 6]])
>>> np.ravel(x)
array([1, 2, 3, 4, 5, 6])

tolist

将数组或者矩阵转换成列表

>>> a1 = [[1,2,3],[4,5,6]] # a1是列表
>>> a2 = array(a1) # 列表——>数组
>>> a2
array([[1, 2, 3],
       [4, 5, 6]])
>>> a4 = a2.tolist()  # 数组——>列表
>>> a4
[[1, 2, 3], [4, 5, 6]]

cv2.perspectiveTransform

投射变换

cv2.polylines

画多边形

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值