python数字图像处理基础(八)——harris角点检测、图像尺度空间、SIFT算法

harris角点检测

原理

Harris 角点检测是一种用于在图像中检测角点的算法。角点是图像中局部区域的交叉点或者突出的特征点。Harris 角点检测算法旨在寻找图像中对于平移、旋转和尺度变化具有不变性的角点。

该算法通过计算图像中每个像素点的灰度值的变化,来识别角点。具体来说,Harris 角点检测通过以下步骤实现:

  1. 计算图像的梯度: 对图像进行空间梯度的计算,通常使用 Sobel 等滤波器。

  2. 计算结构矩阵: 对每个像素点,根据其周围像素的梯度计算一个结构矩阵。结构矩阵是一个2x2的矩阵,其中包含了该像素点附近局部梯度的信息。

  3. 计算角点响应函数: 利用结构矩阵的信息,计算每个像素点的角点响应函数。Harris 角点检测使用如下的角点响应函数:

R = det ⁡ ( M ) − k ⋅ trace 2 ( M ) R = \det(M) - k \cdot \text{trace}^2(M) R=det(M)ktrace2(M)

其中,M是结构矩阵, det ⁡ \det det表示矩阵的行列式, trace \text{trace} trace 表示矩阵的迹,k是一个常数(通常取较小的值)。

  1. 选取角点: 通过对角点响应函数进行阈值处理,选择角点。通常,角点响应函数大于某个阈值的像素点被认为是角点。

Harris 角点检测的优势在于它对图像的平移、旋转和尺度变化有较好的不变性,因此在计算机视觉领域中被广泛应用。检测到的角点通常用于图像匹配、物体识别、图像配准等应用。

对于角点的检测,harris依据一下直观判断:角点应该在窗口的各个方向都有变化,边界会在某个方向基本不变,而平坦区域在各个方向变化都小。

函数

cv2.cornerHarris(src, blockSize, ksize, k, dst, borderType)

  • src:数据类型为float32的输入图像
  • blockSize:角点检测中要考虑的领域大小
  • ksize:Sobel求导中使用的窗口大小
  • k:Harris 角点检测方程中的自由参数,取值参数为 [0,04,0.06].
  • dst:目标图像
  • borderType:边界类型
import cv2
import numpy as np
from matplotlib import pyplot as plt
 
 
def plot(img, n):
    filename = img
    #读入图像并转化为float类型,用于传递给harris函数
    img = cv2.imread(filename)
    gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    gray = np.float32(gray)
    # 输入图像必须是 float32 
    
    #对图像执行harris,最后一个参数在 0.04 到 0.05 之间
    dst = cv2.cornerHarris(gray, 2, 3, 0.04)
    
    # result is dilated for marking the corners, not important(腐蚀harris结果)
    dst = cv2.dilate(dst, None)
    
    # Threshold for an optimal value, it may vary depending on the image.(设置阈值)
    Threshold = 0.005*dst.max()
    img[dst > Threshold] = [255, 0, 0] # RGB,[0,0,255]表示该点为红色
    
    # 打印图像
    plt.subplot(1, 3, n), plt.imshow(img, cmap='gray'),
    plt.title('dst'), plt.axis('off')
 
 
plot('test30.jpg', 1)
plot('test30_1.jpg', 2)
plot('test30_2.jpg', 3)
 
plt.show()

# 一般方法
import cv2
import numpy as np


img = cv2.imread('./image/img2.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
dst = cv2.cornerHarris(gray, 2, 3, 0.04)

img[dst > 0.1 * dst.max()] = [0, 0, 255]
cv2.imshow('dst', img)
cv2.waitKey(0)
cv2.destroyAllWindows()


图像尺度空间

概念

尺度空间就是试图在图像领域中模拟人眼观察物体的概念与方法。

这是由于通过计算机视觉系统,我们无法直接获取所关注物体、对象的大小,这时候就需要一个尺度空间来描述。

在一定的范围内,无论物体是大还是小,人眼都可以分辨出来。然而计算机要有相同的能力却不是那么的容易,在未知的场景中,计算机视觉并不能提供物体的尺度大小,其中的一种方法是把物体不同尺度下的图像都提供给机器,让机器能够对物体在不同的尺度下有一个统一的认知。在建立统一认知的过程中,要考虑的就是在图像在不同的尺度下都存在的特征点。

使之能在图像模糊的时候能识别出来是什么东西(教室里看到的清晰的班主任和球场上可以认出走过来的模糊人脸是班主任)

二维图像的尺度空间定义

在这里插入图片描述

局部不变性

对于目标物体,我们希望通过一些特征来描述它。比如车,可以选取车牌、轮廓等特征,对于人脸,则有五官、面型等特征。

分析图像物体时,我们关注的是目标与背景的差异性,局部不变性就是特征分析的重要性质。其包括:

  • 尺度不变性

    摄像头相对于物体远近呈现出来的物体尺寸不受其大小影响。 貌似说:就是不管你的物体大小如何,摄像头都可以改变目标物体的图像大小,只不过是摄像头放的远近问题。比如说:两个除了尺寸之外都一样的球,摄像头离大的球远一些,离小的球近一些,在某个点上,就会出现图像上两个球一样大小的情况。

  • 旋转不变性

    即若图像按下式进行变换(相当于所有坐标在极坐标下旋转θ角度):

在这里插入图片描述
在这里插入图片描述
图像的某些特征值不变,(某些函数值不变,如hu矩)

当这个物体发生旋转时,我们照样可以正确地辨认它,这就是所谓的旋转不变性(另外一个熟悉的具有旋转不变形的是拉普拉斯算子)

局部不变特征

全局特征:从整个图像中抽取的特征。较多的运用在图像检索领域,如图像颜色直方图。

局部特征:从图像的局部区域中抽取的特征(这个局部区域往往是图像中的一个像素及它周围的邻域)。

一种好的局部特征应该具有下面的特性:

  • 可重复性:同一个物体在不同时间,不同角度拍到图像中,检测到的特征对应的越多越好。
  • 独特性:特征在该物体上表现为独特性,能与场景下其他物体区分。
  • 局部性:特征往往是物体某个局部的特点,这样才可以避免遮挡时不能匹配的问题。
  • 数量性:检测到的特征数目一定要多,密集度最好能在一定程度上反映图像的内容。
  • 准确性:得到的特征应该能被精确定位,能够精确到像素。
  • 高效性:特征检测算法运算要快。

为了研究图像的尺度不变特征,我们需要先从图像的尺度空间理论开始。

当用一个机器视觉系统分析未知场景时,计算机没有办法预先知识图像中物体尺度,因此,我们需要同时考虑图像在多尺度下的描述,获知感兴趣物体的最佳尺度。

所以在很多时候,我们会在将图像构建为一系列不同尺度的图像集,在不同的尺度中去检测我们感兴趣的特征。比如:在Harr特征检测人脸的时候,因为我们并不知道图像中人脸的尺寸,所以需要生成一个不同大小的图像组成的金字塔,扫描其中每一幅图像来寻找可能的人脸

SIFT算法

SIFT(Scale-Invariant Feature Transform)是一种用于图像处理和计算机视觉中的特征提取算法,它具有尺度不变性和旋转不变性,因此在图像匹配、目标识别和图像配准等领域得到广泛应用。

SIFT 算法的主要步骤包括:

  1. 尺度空间极值检测: 在不同的尺度下,通过高斯滤波器构建图像的尺度空间金字塔,然后在每个尺度下检测局部极值点(关键点)。这些关键点代表图像中的显著特征。

  2. 关键点定位: 在检测到的极值点中,通过比较其尺度空间的局部邻域,选择稳定的关键点。这些关键点具有在尺度、位置和方向上的不变性。

  3. 方向分配: 为每个关键点分配主方向,使得该关键点对于旋转具有不变性。SIFT 使用梯度方向直方图来确定关键点的主方向。

  4. 关键点描述: 使用关键点周围的图像信息来创建描述符。描述符是一个向量,包含关键点周围区域的梯度信息。这些描述符是用于匹配关键点的特征。

SIFT 算法的优点包括对于尺度、旋转、光照变化等的不变性,以及对于局部图像区域的高判别性。然而,由于 SIFT 的计算量较大,因此在实时性要求较高的应用中可能会受到一些限制。

要点

检测到关键点 —(种子、直方图统计)—> 生成特征向量

让选择的特征点更加准确:把图像首先做一个金字塔,金字塔中每一层做不同的高斯滤波,让每一层图像进行不同程度的模糊,通过差分的方法选出最有价值的点,点的选择方法:DoG空间极值检测——在3X3的三维像素区域内(类似魔方)将中心点与周围26个像素点进行比较,得到候选关键点;但这些点是DOG空间的局部极值点,而且均为离散的点。故需要对这些点做曲线拟合操作,计算其极值点,从而实现关键点(特征点)的精确定位。补充完善:消除边界响应(Hessian矩阵)

得到特征点坐标后,接着要获取特征点的主方向,要先算出每个点坐标Location(x,y)的梯度的模m(x,y)以及方向θ(x,y),完成关键点的梯度计算后,使用直方图统计邻域内像素的梯度和方向,生成特征描述;为保证特征矢量的旋转不变性,要以特征点为中心,在附近邻域内将坐标旋转θ角度,即将坐标轴旋转为特征点的主方向;旋转之后以主方向为中心取8X8的窗口,求每个像素的梯度幅值和方向,找到一些种子点,基于这些种子,算出每一小块的直方图(8维向量),最终得到16X8=128维的向量。这样一个关键点就会产生128维的SIFT特征向量。

import cv2


img = cv2.imread('./image/img1.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
sift = cv2.xfeatures2d.SIFT_create()
# 注:新版本(对应py3.9)为sift = cv2. SIFT_create()


kp = sift.detect(gray, None)
# 找到关键点

img = cv2.drawKeypoints(gray, kp, img)
# 绘制关键点

cv2.imshow('sp',img)
cv2.waitKey(0)

在这里插入图片描述


  • 25
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
SIFT概述p200 在前面我们学习了角点检测技术,比如Harris等。它们具有旋转不变特性,即使图片发生了旋转,我们也能找到同样的角点,很明显即使图像发生旋转之后角点还是角点。但是如果我们对图像进行缩放,那么角点就可能不再是角点了。所以基于这个问题,尺度不变特征变换(SIFT)出现了,这个算法可以帮助我们提取图像中的关键点并计算它们的描述符。 • 尺度空间极值检测 • 关键点精准定位与过滤 • 关键点方向指派 • 描述子生成 1. 尺度空间极值检测: (由Harris的弊端)我们知道在不同的尺度空间不能使用相同的窗口检测极值点。对于小的角点要用小的窗口。对于大的角点只能使用大的窗口。为了达到这个目的我们需要使用尺度空间滤波器(由一些列具有不同方差sigma的高斯卷积核构成)。 使用具有不同方差值sigma的高斯拉普拉斯算子(LoG)对图像进行卷积,LoG由于具有不同的方差值sigma所以可以用来检测不同大小的斑点,简单来说方差sigma就是一个尺度变换因子,使用一个小方差sigma的高斯卷积核可以很好地检测出小的角点,而是用大方差sigma的高斯卷积核可以很好打的检测出大的角点。 我们可以在尺度空间和二维平面中检测到局部最大值,如(x,y,sigma),这表示sigma尺度中(x,y)点可能是一个关键点。但是这个LoG的计算量非常大,所以SIFT算法使用高斯差分算子(DoG)来对LoG做近似。 DoG是下图这组具有不同分辨率的图像金字塔中相邻的两层之间的差值。 在DoG搞定之后,就可以在不同的尺度空间和2D平面中搜索局部最大值了。对于图像中的一个像素点而言,它需要与自己周围的8个点和上下层18个点相比,如果是局部最大值,它就可能是一个关键点。基本上关键点就是图像在相应尺度空间中的最好代表。如下图所示: 该算法中默认尺度空间为5,经过DoG算法得到4层。所以该算法的作者在文章中给出了SIFT参数的经验值:octave =4。 2. 关键点(极值点)定位---删边界点,去掉低灰度值点 kp 我们通过contrastThreshold阈值来将关键点修正以得到更正确的结果。作者使用尺度空间的泰勒级数展开来获得极值的准确位置,若极值点的灰度值小于阈值(0.03)就会被忽略掉。 DoG算法对边界非常敏感,所以我们必须要把边界去除。我们知道Harris算法除了可以用于角点检测之外还可以用于检测边界。作者就是使用了同样的思路。作者用了Hessian矩阵计算主曲率。从Harris角点检测算法中,我们知道当一个特征值远远大于另一个特征值检测到的是边界。所以他们使用了一个简单的函数,如果比例高于阈值(opencv中称为边界阈值),这个关键点就会被忽略。文章中给出的边界阈值为10.。 3. 为关键点(极值点)指定方向参数 ,描述符生成: des1 现在我们要为每一个关键点赋予一个反向参数,这样它才会具有旋转不变性。 获取关键点(所在尺度空间)的邻域,然后计算这个区域的梯度级和方向,根据计算得到的结果来创建一个方向直方图,其中直方图的峰值为主方向参数,如果其它的任何柱子的高度高于峰值的80%,则被认为是辅方向。 新的关键点描述被创建了。选取与关键点周围一个16*16的邻域,把它分成16个4*4的小方块,为每个小方块创建一个具有8个bin的方向直方图。总共加起来有128个bin,由此组成了128的向量就构成了关键点的描述符。 而代码sift = cv.xfeatures2d.create_SIFT() kp,des=sift.detectAndCompute(gray,None)这两句话的原理就是1-3 4. 关键点匹配 采用关键点特征向量的欧式距离作为两幅图像中关键点的相似性判定度量。取第一个图的某个关键点,通过遍历找到第二幅图像中的距离最近的那个关键点。cv.BFMatcher,match()就是这个原理,1对1特征点,即返回最佳匹配。 而在有些情况下,第二个距离最近的关键点与第一个距离最近的关键点靠的太近,这可能是由于噪声等引起的,此时要计算最近距离与第二近距离的比值,如果比值大于0.8,就会忽略掉。而cv.BFMatcher.knnMatch就是基于这个原理 cv.BFMatcher.knnMatch可以指定每个关键点返回k个最佳匹配,这里不妨令k=2。 源码: img1 = cv.imread("E:/opencv/picture/test1.jpg") img2 = cv.imread("E:/opencv/picture/test2.jpg") gray1 = cv.cvtCo
### 回答1: Harris角点检测是一种常见的计算机视觉算法,它可以检测图像中的角点。在Python中,可以使用OpenCV库来实现Harris角点检测。 下面是一个简单的Harris角点检测Python实现的示例: ``` import cv2 import numpy as np # 加载图像 img = cv2.imread('image.jpg') # 转换为灰度图像 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 计算Harris角点 dst = cv2.cornerHarris(gray, blockSize=2, ksize=3, k=0.04) # 通过阈值进行筛选 img[dst > 0.01 * dst.max()] = [0, 0, 255] # 显示结果 cv2.imshow('Harris Corner Detection', img) cv2.waitKey(0) cv2.destroyAllWindows() ``` 首先,使用`cv2.imread`函数加载要处理的图像。然后,将图像转换为灰度图像,以便进行角点检测。接下来,使用`cv2.cornerHarris`函数计算图像中的Harris角点。在这个函数中,`blockSize`是要考虑的邻域大小,`ksize`是Sobel算子的大小,`k`是Harris角点响应函数的参数。然后,通过设置一个阈值来筛选角点,并将它们用红色标记出来。最后,使用`cv2.imshow`函数显示结果。 这是一个简单的Harris角点检测Python实现示例,可以根据具体情况进行调整和优化。 ### 回答2: Harris角点检测是一种计算机视觉中常用的角点检测算法,用于识别图像中的角点。Python有很多库可以实现Harris角点检测,这里以OpenCV库为例进行讲解。 首先,我们需要导入OpenCV库: ```python import cv2 ``` 然后,读取图像并将其转换为灰度图像: ```python image = cv2.imread('image.jpg') # 读取图像 gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 转换为灰度图像 ``` 接下来,通过调用`cv2.cornerHarris()`函数实现Harris角点检测: ```python dst = cv2.cornerHarris(gray, 2, 3, 0.04) # 进行Harris角点检测 ``` 在上述代码中,`gray`是输入的灰度图像,`2`是角点窗口(卷积窗口)的大小,`3`是Sobel算子(用于计算梯度的算子)的孔径尺寸,`0.04`是Harris角点检测的自由参数k。 接下来,使用`cv2.dilate()`函数对角点图像进行膨胀操作,以便更好地显示角点: ```python dst = cv2.dilate(dst, None) # 对角点图像进行膨胀操作 ``` 然后,根据设定的阈值,将角点标记为最大值: ```python image[dst > 0.01 * dst.max()] = [0, 0, 255] # 根据阈值将角点标记为红色 ``` 最后,显示检测结果的图像: ```python cv2.imshow('Harris Corner Detection', image) # 显示检测结果 cv2.waitKey(0) cv2.destroyAllWindows() ``` 以上就是使用Python实现Harris角点检测的步骤。通过对图像进行角点检测,我们可以在图像中找到重要的角点,这对于很多计算机视觉任务(如特征提取、图像配准等)是非常有用的。 ### 回答3: Harris角点检测是一种经典的计算机视觉算法,用于检测图像中的角点。下面是使用Python实现Harris角点检测的步骤: 1. 导入所需的库:首先导入OpenCV和NumPy库,用于图像处理和数组计算。 2. 读取图像:使用OpenCV的imread函数读取待处理的图像。 3. 图像灰度化:将读取的图像转换为灰度图像,可以使用OpenCV的cvtColor函数实现。 4. 计算图像的梯度:使用Sobel算子计算图像在x和y方向的梯度值,可以使用OpenCV的Sobel函数。 5. 计算Harris响应函数:根据Harris角点检测的定义,计算Harris响应函数R。 6. 阈值处理:设置一个阈值,将Harris响应函数大于阈值的像素点作为角点。 7. 绘制角点:根据计算得到的角点位置,在原图像上绘制特殊标记,可以使用OpenCV的circle函数。 8. 显示结果:显示处理结果,可以使用OpenCV的imshow函数。 9. 保存结果:保存处理后的图像,可以使用OpenCV的imwrite函数。 以上就是使用Python实现Harris角点检测的基本步骤。在实际编码中,还可以根据需要进行参数调整和优化,以获得更好的检测结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值