OpenCV的SIFT特征点提取及RANSAC去除误检测

关于SIFT的讲解,参考:http://blog.csdn.net/zddblog/article/details/7521424
关于SANCAS的讲解,参考:http://blog.csdn.net/laobai1015/article/details/51682596

SIFT(Scale Invariant Feature Transform)多尺度特征点提取算法在nonfree文件内集成。
RANSAC(Random Sample Consensus随机抽样一致算法在calib3d文件内集成。

主要的思路是:
(1)利用SiftFeatureDetector类对象提取SIFT特征点;
(2)利用SiftDescriptorExtractor类对象进行特征点的特征提取;
(3)利用BFMatcher类对象实现初步匹配;
(注意:在第3步中,实际上已经完成SIFT特征点的提取与匹配,但是会有较多的无匹配,因此后面的步骤主要思路是利用RANSAC方法去除误匹配)
(4)利用2-范数特征阈值初步筛选去除误匹配;
(6)利用findFundamentalMat函数实现RANSAC算法。
文件头如下:
  1. #include <opencv2/opencv.hpp>  
  2. #include <iostream>  
  3. #include <opencv2/nonfree/nonfree.hpp>  
  4. #include <opencv2/features2d/features2d.hpp>  
代码如下:
  1. Mat Limg = imread("Limage.png", CV_LOAD_IMAGE_ANYDEPTH);  
  2. Mat Rimg = imread("Rimage.png", CV_LOAD_IMAGE_ANYDEPTH);  
  3. // detecting keypoints  
  4. SiftFeatureDetector detector(0, 3, 0.04, 10, 1.6);  
  5. // (特征点数目-按sift特征质量排序,金字塔中每组的层数,过滤的阈值,边缘效应阈值,高斯滤波系数)  
  6. vector<KeyPoint> Lkeypoints, Rkeypoints;  
  7. detector.detect(Limg, Lkeypoints);  
  8. detector.detect(Rimg, Rkeypoints);  
  9. // computing descriptors  
  10. // SiftDescriptorExtractor extractor;  
  11. SiftDescriptorExtractor extractor;  
  12. Mat Ldescriptors, Rdescriptors;  
  13. extractor.compute(Limg, Lkeypoints, Ldescriptors);  
  14. extractor.compute(Rimg, Rkeypoints, Rdescriptors);  
  15. // matching descriptors  
  16. BFMatcher matcher(NORM_L1);  //> 对应sift  
  17. vector<DMatch> matches;  
  18. matcher.match(Ldescriptors, Rdescriptors, matches);  
  19. //   
  20. namedWindow("matches", CV_WINDOW_FREERATIO);  
  21. Mat img_matches;  
  22. drawMatches(Limg, Lkeypoints, Rimg, Rkeypoints, matches, img_matches);  
  23. imshow("matches", img_matches);  
  24. // coordination of match-feature-point  
  25. vector<Point2f> Lp, Rp;  
  26. for (size_t m = 0; m < matches.size(); m++)  
  27. {  
  28.     int i1 = matches[m].queryIdx;  
  29.     int i2 = matches[m].trainIdx;  
  30.     Mat Ldesc = Ldescriptors.row(i1);  
  31.     Mat Rdesc = Rdescriptors.row(i2);  
  32.     double EuclideanDist = norm(Ldesc, Rdesc);  
  33.     if (EuclideanDist <= 50)  
  34.     {  
  35.         const KeyPoint &kp1 = Lkeypoints[i1], &kp2 = Rkeypoints[i2];  
  36.         Lp.push_back(kp1.pt);  
  37.         Rp.push_back(kp2.pt);  
  38.     }  
  39. }  
  40. // 用RANSAC方法计算基本矩阵&去除误匹配    
  41. Mat Fundamental;  
  42. vector<uchar> RANSACStatus;  
  43. Fundamental = findFundamentalMat(Lp, Rp, RANSACStatus, CV_FM_RANSAC, 3.0, 0.995);  
  44. // 筛选特征点  
  45. vector<Point2f> Lpoint, Rpoint;  
  46. vector<DMatch> m_match;  
  47. int idxnum = 0;  
  48. for (int i = 0; i < RANSACStatus.size(); i++)  
  49. {  
  50.     if (RANSACStatus[i] != 0)  
  51.     {  
  52.         Lpoint.push_back(Lp[i]);  
  53.         Rpoint.push_back(Rp[i]);  
  54.         idxnum++;  
  55.     }  
  56. }     
  57. m_match.resize(idxnum);  
  58. for (int idx = 0; idx < idxnum; idx++)  
  59. {  
  60.     // 用于匹配验证  
  61.     m_match[idx].queryIdx = idx;  
  62.     m_match[idx].trainIdx = idx;  
  63. }  
  64. // 把内点转换为drawMatches可以使用的格式    
  65. vector<KeyPoint> Lkp(idxnum);  
  66. vector<KeyPoint> Rkp(idxnum);  
  67. KeyPoint::convert(Lpoint, Lkp);  
  68. KeyPoint::convert(Rpoint, Rkp);  
  69. // 显示筛选后的特征点  
  70. namedWindow("m_match", CV_WINDOW_FREERATIO);  
  71. Mat m_matches;  
  72. drawMatches(Limg, Lkp, Rimg, Rkp, m_match, m_matches);  
  73. imshow("m_match", m_matches);  
其中,
第20-23行展示的是SIFT特征点经过BFMatch之后的结果,一般来说误匹配较多,效果不理想;
第70-73行展示的是SIFT特征点经过RANSAC之后的结果,一般来说效果好很多。


### 回答1: SIFT(尺度不变特征转换)是一种图像特征提取算法,而RANSAC(随机抽样一致性)是一种用于剔除匹配点的算法。下面是关于如何在OpenCV 3.0中实现这两种算法的简要步骤。 首先,打开一个图像并加载其所需的库: ``` import cv2 import numpy as np ``` 然后,我们可以从图像中提取SIFT特征: ``` # 加载图像 img = cv2.imread('image.jpg',0) # 创建SIFT对象 sift = cv2.xfeatures2d.SIFT_create() # 检测并计算SIFT特征 keypoints, descriptors = sift.detectAndCompute(img, None) ``` 接下来,我们可以使用RANSAC算法来剔除匹配点: ``` # 创建FLANN匹配器对象 FLANN_INDEX_KDTREE = 0 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params = dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) # 在两幅图像之间匹配特征点 matches = flann.knnMatch(descriptors1, descriptors2, k=2) # 进行RANSAC过滤 good_matches = [] for m, n in matches: if m.distance < 0.7 * n.distance: good_matches.append(m) # 绘制匹配结果 result = cv2.drawMatches(img1, keypoints1, img2, keypoints2, good_matches, None, flags=2) cv2.imshow('Matches', result) cv2.waitKey(0) cv2.destroyAllWindows() ``` 在上述代码中,我们首先创建了一个FLANN(快速最近邻搜索)匹配器对象,然后使用`knnMatch`函数在两幅图像之间进行特征点的匹配。最后,我们使用RANSAC算法对匹配点进行过滤,并将结果绘制出来。 以上是在OpenCV 3.0中实现SIFT特征提取RANSAC匹配点剔除的简要步骤。实际操作中还可以进行更详细的参数设置和优化,以便得到更好的匹配结果。 ### 回答2: OpenCV 3.0 是一个非常强大的计算机视觉库,它提供了许多功能来处理图像处理和计算机视觉任务。其中包括使用SIFT算法进行特征提取和使用RANSAC算法进行匹配点的剔除。 首先,SIFT(尺度不变特征变换)是一种用于在图像中检测和描述关键点的算法。在OpenCV 3.0中,你可以使用`cv2.xfeatures2d.SIFT_create()`来创建一个SIFT对象。然后,你可以使用`detectAndCompute()`方法来检测并计算图像的关键点和特征描述符。通过调用这个方法,你将得到检测到的关键点和对应的特征描述符。 接下来,我们可以使用RANSAC(随机样本一致性)算法来剔除匹配点。RANSAC算法能够通过随机选择样本子集并估计模型参数来寻找数据中的局内点。在OpenCV 3.0中,你可以使用`cv2.RANSAC`作为参数来创建一个RANSAC对象。然后,你可以使用`findHomography()`方法来计算通过RANSAC算法筛选后的匹配点之间的透视变换矩阵。这个矩阵可以用来剔除匹配点。 总结一下,OpenCV 3.0可以通过`cv2.xfeatures2d.SIFT_create()`方法进行SIFT特征提取,并使用RANSAC算法来剔除匹配点。这两个功能都是非常有用的计算机视觉任务,能够帮助我们更好地处理和分析图像。 ### 回答3: 在OpenCV 3.0中,可以使用SIFT算法进行图像的特征提取,并采用RANSAC算法剔除匹配点。 SIFT(Scale-Invariant Feature Transform)特征提取算法是一种基于尺度空间的特征提取方法,它可以提取图像中的稳定特征点和其对应的描述子。在OpenCV中,可以使用sift.detectAndCompute()函数来提取图像的SIFT特征点和描述子。 RANSACRandom Sample Consensus)算法是一种鲁棒的参数估计算法,它可以从一组数据中剔除异常点,从而得到准确的模型参数。在特征匹配中,可以使用RANSAC算法来剔除匹配点,以提高匹配的准确性。 具体实现的步骤如下: 1. 导入OpenCV和Numpy库,并读取需要进行特征匹配的两幅图像。 ```python import cv2 import numpy as np img1 = cv2.imread('image1.jpg', 0) img2 = cv2.imread('image2.jpg', 0) ``` 2. 创建SIFT对象,并使用sift.detectAndCompute()函数提取图像的SIFT特征点和描述子。 ```python sift = cv2.SIFT_create() kp1, des1 = sift.detectAndCompute(img1, None) kp2, des2 = sift.detectAndCompute(img2, None) ``` 3. 使用FLANN匹配器对两幅图像的描述子进行匹配。 ```python FLANN_INDEX_KDTREE = 0 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params = dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) matches = flann.knnMatch(des1, des2, k=2) ``` 4. 运用RANSAC算法剔除匹配点。 ```python good_matches = [] for m, n in matches: if m.distance < 0.7 * n.distance: good_matches.append(m) src_pts = np.float32([kp1[m.queryIdx].pt for m in good_matches]).reshape(-1, 1, 2) dst_pts = np.float32([kp2[m.trainIdx].pt for m in good_matches]).reshape(-1, 1, 2) M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) ``` 通过以上步骤,我们可以得到经过RANSAC算法筛选后的匹配点,并且可以通过M矩阵获取图像的对应关系。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值