OpenCV-Python实践之Feature-Matching算法

特征匹配算法简介

OpenCV库函数里面集成了相关特征匹配算法,目前有:Brute-Force Matcher(BF)算法、FLANN算法使用频率较高。暴力匹配算法比较简单:就是通过描述子descriptors1中任意特征去匹配descriptors2中的所有特征,得到距离的结果值,然后通过Ratio-test抑制来降低错误匹配点。FLANN算法是最近邻算法的快速近似,以此来提升匹配的计算效率,下面我们来简单通过调用OpenCV自带的库函数进行运用。

1 ORB匹配算法(Python)

ORB算法是当前唯一能够满足实时性的应用场景匹配算法,当然其性能要比SIFT/SURF算法略差。但是,其能够在相对保持性能的同时,计算速度大幅提升。在室内定位、导航等应用广泛,例如较为经典算法:ORB-SLAM,具体ORB算法细节可以参考我另外一篇C++版本的ORB博文:OpenCV实践之ORB算法

from __future__ import print_function
import cv2 as cv
import numpy as np

img1 = cv.imread('./data/box.png', cv.IMREAD_GRAYSCALE)
img2 = cv.imread('./data/box_in_scene.png', cv.IMREAD_GRAYSCALE)
if img1 is None or img2 is None:
    print('Could not open or find the images!')
    exit(0)

#-- Step 1: Detect the keypoints using SURF Detector, compute the descriptors
detector = cv.ORB_create()

keypoints1, descriptors1 = detector.detectAndCompute(img1, None)
keypoints2, descriptors2 = detector.detectAndCompute(img2, None)

#-- Step 2: Matching descriptor vectors with a brute force matcher
matcher = cv.BFMatcher(cv.NORM_HAMMING, crossCheck=True)
matches = matcher.match(descriptors1, descriptors2)

# Sort matches in the order of their distances
matches = sorted(matches, key = lambda x : x.distance)
#-- Draw matches
img_matches = np.empty((max(img1.shape[0], img2.shape[0]), img1.shape[1]+img2.shape[1], 3), dtype=np.uint8)
cv.drawMatches(img1, keypoints1, img2, keypoints2, matches[:10], img_matches)

#-- Show detected matches
cv.imshow('Matches', img_matches)
cv.waitKey(0)
1.1 ORB算法实验结果
代码中cv.drawMatches()参数matches[:10]代表只画出前面10个排序鲁棒的特征点对。二值描述子经过一定的排序,matches=sorted()这个函数就是对匹配的描述子进行排序。
2 SIFT算法

谈到SIFT算法,不用再具体讨论其算法细节!网上资源解说很多,原因也是SIFT算法是最经典的特征匹配算法。当然,也可以参考一下我的博文:C++版本实现OpenCV实践之SIFT/SURF算法,SIFT算法解说:SIFT算法系列之尺度空间SIFT算法系列之特征点检测。OK, 下面上Python版本的代码:

2.1 SIFT+BF+Ratio-Test
from __future__ import print_function
import cv2 as cv
import numpy as np

img1 = cv.imread('./data/box.png', cv.IMREAD_GRAYSCALE)
img2 = cv.imread('./data/box_in_scene.png', cv.IMREAD_GRAYSCALE)
if img1 is None or img2 is None:
    print('Could not open or find the images!')
    exit(0)

#-- Step 1: Detect the keypoints using SIFT Detector, compute the descriptors
detector = cv.xfeatures2d_SIFT.create()

keypoints1, descriptors1 = detector.detectAndCompute(img1, None)
keypoints2, descriptors2 = detector.detectAndCompute(img2, None)

#-- Step 2: Matching descriptor vectors with a brute force matcher
matcher = cv.BFMatcher()
matches = matcher.knnMatch(descriptors1, descriptors2, k=2)

#--Step 3: Apply Ratio Test
good = []
for m,n in matches:
    if m.distance < 0.5*n.distance:
        good.append([m])

#-- Draw matches
img_matches = np.empty((max(img1.shape[0], img2.shape[0]), img1.shape[1]+img2.shape[1], 3), dtype=np.uint8)
cv.drawMatchesKnn(img1, keypoints1, img2, keypoints2, good, img_matches)

#-- Show detected matches
cv.imshow('Matches', img_matches)
cv.waitKey(0)
2.1 SIFT使用BF算法+Ratio-Test来进行特征匹配
2.2 SIFT+FLANN算法代码
from __future__ import print_function
import cv2 as cv

from matplotlib import pyplot as plt

img1 = cv.imread('./data/box.png', cv.IMREAD_GRAYSCALE)
img2 = cv.imread('./data/box_in_scene.png', cv.IMREAD_GRAYSCALE)
if img1 is None or img2 is None:
    print('Could not open or find the images!')
    exit(0)

# Initiate SIFT detector
detector = cv.xfeatures2d_SIFT.create()

keypoints1, descriptors1 = detector.detectAndCompute(img1, None)
keypoints2, descriptors2 = detector.detectAndCompute(img2, None)

# FLANN paramters
FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(check=50) # or pass dictory

flann = cv.FlannBasedMatcher(index_params, search_params)

matches = flann.knnMatch(descriptors1, descriptors2, k=2)

# Need to draw only good matches, so create a mask
matchesMask = [[0,0] for i in range(len(matches))] # python2.x for xrange()

# ratio test as per Lowe's paper
for i,(m,n) in enumerate(matches):
    if m.distance < 0.5 * n.distance:
        matchesMask[i] = [1,0]

draw_params = dict(matchColor=(0, 0, 255), singlePointColor=(255, 0, 0),
                   matchesMask=matchesMask, flags=0)

img_matches = cv.drawMatchesKnn(img1, keypoints1, img2, keypoints2, matches, None, **draw_params)

#-- Show detected matches
cv.imshow('Matches', img_matches)
cv.waitKey(0)
2.2 SIFT+FLANN算法特征匹配结果
3 小结

简单学习使用opencv-python版本进行调用相关特征匹配函数,当然python2.x在官网示例可以直接运行。python3.x会有一些小地方需要修改,本文是基于python3.x系列的代码,如果你安装的是python3.x系列的话,可以直接运行。逐渐熟悉python-opencv版本函数调用后,将会在以后更新python-opencv相关算法。如有错误,还请批评指正!

4 参考

https://opencv-python-tutroals.readthedocs.io/en/latest/py_tutorials/py_feature2d/py_matcher/py_matcher.html#matcher

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: local feature matching 是计算机视觉中一种常用的图像特征匹配算法,主要用于在不同图像中寻找相似的局部特征点。这种算法可以应用于目标跟踪、图像拼接、立体视觉等多个领域。 local feature matching代码实现通常可以分为以下几个步骤: 1. 提取特征点:首先,通过使用特征提取算法(例如SIFT、SURF、ORB等)从图像中提取出关键点和对应的特征描述子。 2. 特征点匹配:对于两幅图像,通过计算特征点的相似性(如欧氏距离、汉明距离等),将每个特征点在另一幅图像中找到最匹配的特征点。可以使用暴力匹配方法或KD树等数据结构来加速匹配过程。 3. 特征点筛选:对匹配的特征点进行筛选,通常使用RANSAC算法或最小二乘法来剔除错误匹配点,同时选取最佳匹配对。 4. 可选的步骤:可以对剩余的特征点进行进一步的过滤和匹配,提高匹配质量。 5. 可视化结果:最后,将匹配结果可视化,可以使用线段、箭头等来表示匹配的特征点对,可以将匹配结果输出到图像或视频中。 local feature matching代码实现可以使用各种编程语言和计算机视觉库进行。例如,使用Python编程语言可以使用OpenCV、scikit-image等开源库进行特征点提取和匹配。先通过这些库中的相关函数进行特征点提取,再通过自定义代码实现匹配和筛选的步骤。最后,使用图像库绘制匹配结果。 ### 回答2: 本文将简要介绍local feature matching代码实现。local feature matching是计算机视觉中常用的一种图像特征匹配方法,可以用于在两幅图像中找到相似的局部特征点。 代码的实现基于OpenCV库,首先需要将两幅图像加载进内存,并使用特征检测算法(例如SIFT或SURF)提取图像的局部特征点。接下来,使用描述子算法(例如SIFT或SURF)计算每个局部特征点的描述子。 在进行特征点匹配之前,需要根据提取到的描述子计算两幅图像中的特征点的相似度。这可以通过计算描述子之间的距离来实现,常用的距离度量方法有欧氏距离、曼哈顿距离和余弦相似度等。 在计算特征点相似度之后,可以使用一定的阈值筛选出相似度高于阈值的特征点对,这些特征点对可以认为是匹配成功的特征点对。可以根据需求设置不同的阈值,以控制匹配的准确性和敏感度。 最后,可以将匹配成功的特征点对绘制在两幅图像上,以便直观地观察匹配结果。可以使用OpenCV中提供的函数(例如cv2.drawMatches)完成这一步骤。 需要注意的是,local feature matching代码实现还可以根据具体的需求进行优化和改进。例如,可以使用快速特征匹配算法(例如FLANN)来加速匹配过程,或者通过RANSAC算法来筛选出更准确的特征点匹配。 总结起来,local feature matching代码实现主要包括图像加载、特征点检测、描述子计算、特征点相似度计算、特征点筛选和匹配结果可视化等步骤。通过代码的实现,可以实现在两幅图像中找到相似的局部特征点。 ### 回答3: local feature matching(局部特征匹配)是计算机视觉领域中常用的图像处理技术,它常用于目标检测、图像配准、视觉跟踪等应用中。下面我们来介绍一下关于local feature matching代码实现。 首先,我们需要提取图像中的局部特征,常用的方法是使用一种称为SIFT(Scale-Invariant Feature Transform)的算法。这个算法可以在不同尺度和旋转变换下保持特征的不变性。通过调用现有的SIFT库,我们可以得到两个图像中的一组特征点和对应的特征描述子。 接下来,我们需要对两幅图像的特征点进行匹配,常用的方法是使用一种称为FLANN(Fast Library for Approximate Nearest Neighbors)的算法。该算法可以高效地在高维特征空间进行最近邻搜索。通过调用现有的FLANN库,我们可以找到每个特征点在另一幅图像中距离最近的特征点,从而实现特征点的匹配。 最后,我们可以根据匹配的特征点对两幅图像进行配准或其他进一步的处理。例如,我们可以计算两幅图像之间的变换矩阵,实现图像的对齐或融合。此外,我们还可以利用匹配的特征点进行目标检测或跟踪,例如通过计算特征点的运动向量来实现光流估计。 综上所述,local feature matching是一种常用的图像处理技术,通过提取和匹配图像中的局部特征,可以实现目标检测、图像配准和视觉跟踪等应用。在代码实现中,我们需要调用相应的库函数,例如SIFT库和FLANN库,以实现对特征点的提取和匹配。通过进一步的处理和分析,我们可以利用匹配的特征点来实现图像的配准、目标检测和跟踪等功能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值