OpenCV3.4.11实现SIFT特征点提取和匹配

直接上代码吧

#include <iostream>
#include "opencv2/opencv.hpp"
#include"opencv2/core/core.hpp"
#include <opencv2/features2d/features2d.hpp>

bool siftPointsDetect(std::string imgName1, std::string imgName2, int pointNum)
{
	cv::Mat img1, img2;
	img1 = cv::imread(imgName1);
	img2 = cv::imread(imgName2);
	if (img1.empty() || img2.empty()) {
		std::cout << "error: cannot reading image: " << std::endl;
		return false;
	}
	// sift特征提取
	std::vector<cv::KeyPoint> keyPoint1, keyPoint2;
	cv::Ptr<cv::Feature2D> feature = cv::SIFT::create(pointNum);  // 提取pointNum个特征点
	
	feature->detect(img1, keyPoint1);
	feature->detect(img2, keyPoint2);
	std::cout << "detect feature ok\n";

	cv::Mat descor1, descor2;
	feature->compute(img1, keyPoint1, descor1);
	feature->compute(img2, keyPoint2, descor2);
	std::cout << "generate  descor ok\n";
	
	//绘制特征点(关键点)
	cv::Mat feature_pic1, feature_pic2;
	cv::drawKeypoints(img1, keyPoint1, feature_pic1, cv::Scalar(0, 255, 0), cv::DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
	cv::drawKeypoints(img2, keyPoint1, feature_pic2, cv::Scalar(0, 255, 0), cv::DrawMatchesFlags::DRAW_RICH_KEYPOINTS);
	//显示结果
	cv::imwrite("feature1.jpg", feature_pic1);
	cv::imwrite("feature2.jpg", feature_pic2);

	cv::FlannBasedMatcher matcher;  //实例化FLANN匹配器
	std::vector<cv::DMatch>matches;   //定义匹配结果变量
	matcher.match(descor1, descor2, matches);  //实现描述符之间的匹配
	std::cout << "original match numbers: " << matches.size() << std::endl;

	cv::Mat oriMatchRes;
	cv::drawMatches(img1, keyPoint1, img2, keyPoint2, matches, oriMatchRes,
		cv::Scalar(0, 255, 0), cv::Scalar::all(-1));
	cv::imwrite("oriMatchResult.jpg", oriMatchRes);

	double sum = 0;
	double max_dist = 0;
	double min_dist = 100;
	for (int i = 0; i<matches.size(); i++)
	{
		double dist = matches[i].distance;
		if (dist < min_dist)
			min_dist = dist;
		if (dist > max_dist)
			max_dist = dist;
	}
	std::cout << "max distance: " << max_dist << std::endl;
	std::cout << "min distance: " << min_dist << std::endl;

	//筛选出较好的匹配点  
	std::vector<cv::DMatch> goodMatches;
	double dThreshold = 0.5;    //匹配的阈值,越大匹配的点数越多
	for (int i = 0; i<matches.size(); i++) {
		if (matches[i].distance < dThreshold * max_dist) {
			goodMatches.push_back(matches[i]);
		}
	}

	//RANSAC 消除误匹配特征点 主要分为三个部分:
	//1)根据matches将特征点对齐,将坐标转换为float类型
	//2)使用求基础矩阵方法findFundamentalMat,得到RansacStatus
	//3)根据RansacStatus来将误匹配的点也即RansacStatus[i]=0的点删除

	//根据matches将特征点对齐,将坐标转换为float类型
	std::vector<cv::KeyPoint> R_keypoint01, R_keypoint02;
	for (int i = 0; i<goodMatches.size(); i++) {
		R_keypoint01.push_back(keyPoint1[goodMatches[i].queryIdx]);
		R_keypoint02.push_back(keyPoint2[goodMatches[i].trainIdx]);
		// 这两句话的理解:R_keypoint1是要存储img01中能与img02匹配的特征点,
		// matches中存储了这些匹配点对的img01和img02的索引值
	}

	//坐标转换
	std::vector<cv::Point2f> p01, p02;
	for (int i = 0; i<goodMatches.size(); i++) {
		p01.push_back(R_keypoint01[i].pt);
		p02.push_back(R_keypoint02[i].pt);
	}

	//计算基础矩阵并剔除误匹配点
	std::vector<uchar> RansacStatus;
	cv::Mat Fundamental = findHomography(p01, p02, RansacStatus, CV_RANSAC);
	cv::Mat dst;
	warpPerspective(img1, dst, Fundamental, cv::Size(img1.cols, img1.rows));
	cv::imwrite("epipolarImage.jpg", dst); // 核线影像

	// 剔除误匹配的点对
	std::vector<cv::KeyPoint> RR_keypoint01, RR_keypoint02;
	// 重新定义RR_keypoint 和RR_matches来存储新的关键点和匹配矩阵
	std::vector<cv::DMatch> RR_matches;           
	int index = 0;
	for (int i = 0; i<goodMatches.size(); i++) {
		if (RansacStatus[i] != 0) {
			RR_keypoint01.push_back(R_keypoint01[i]);
			RR_keypoint02.push_back(R_keypoint02[i]);
			goodMatches[i].queryIdx = index;
			goodMatches[i].trainIdx = index;
			RR_matches.push_back(goodMatches[i]);
			index++;
		}
	}
	std::cout << "refine match pairs: " << RR_matches.size() << std::endl;
	// 画出消除误匹配后的图
	cv::Mat img_RR_matches;
	cv::drawMatches(img1, RR_keypoint01, img2, RR_keypoint02, RR_matches, img_RR_matches, 
		cv::Scalar(0, 255, 0), cv::Scalar::all(-1));
	cv::imwrite("refineMatchResult.jpg", img_RR_matches);

	return true;
}

main 函数如下:

int main(int argc, char *argv[])
{
	if (argc < 3) {
		std::cout << "error: little parameters\n";
		return -1;
	}

	bool bOk = false;
	std::string path = argv[1];
	std::string imgName1 = path + argv[2];
	std::string imgName2 = path + argv[3];

	int detectPointNum = atoi(argv[4]);
	if (detectPointNum < 5)
		detectPointNum = 5000; // 默认提取5000个特征点
	std::cout << "per image detect feature point number: " << detectPointNum << std::endl;
	bOk = siftPointsDetect(imgName1, imgName2, detectPointNum);
	return 0;
}

希望能帮到你啊

  • 2
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: SIFT(尺度不变特征转换)是一种图像特征提取算法,而RANSAC(随机抽样一致性)是一种用于剔除误匹配点的算法。下面是关于如何在OpenCV 3.0中实现这两种算法的简要步骤。 首先,打开一个图像并加载其所需的库: ``` import cv2 import numpy as np ``` 然后,我们可以从图像中提取SIFT特征: ``` # 加载图像 img = cv2.imread('image.jpg',0) # 创建SIFT对象 sift = cv2.xfeatures2d.SIFT_create() # 检测并计算SIFT特征 keypoints, descriptors = sift.detectAndCompute(img, None) ``` 接下来,我们可以使用RANSAC算法来剔除误匹配点: ``` # 创建FLANN匹配器对象 FLANN_INDEX_KDTREE = 0 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params = dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) # 在两幅图像之间匹配特征点 matches = flann.knnMatch(descriptors1, descriptors2, k=2) # 进行RANSAC过滤 good_matches = [] for m, n in matches: if m.distance < 0.7 * n.distance: good_matches.append(m) # 绘制匹配结果 result = cv2.drawMatches(img1, keypoints1, img2, keypoints2, good_matches, None, flags=2) cv2.imshow('Matches', result) cv2.waitKey(0) cv2.destroyAllWindows() ``` 在上述代码中,我们首先创建了一个FLANN(快速最近邻搜索)匹配器对象,然后使用`knnMatch`函数在两幅图像之间进行特征点的匹配。最后,我们使用RANSAC算法对匹配点进行过滤,并将结果绘制出来。 以上是在OpenCV 3.0中实现SIFT特征提取和RANSAC误匹配点剔除的简要步骤。实际操作中还可以进行更详细的参数设置和优化,以便得到更好的匹配结果。 ### 回答2: OpenCV 3.0 是一个非常强大的计算机视觉库,它提供了许多功能来处理图像处理和计算机视觉任务。其中包括使用SIFT算法进行特征提取和使用RANSAC算法进行误匹配点的剔除。 首先,SIFT(尺度不变特征变换)是一种用于在图像中检测和描述关键点的算法。在OpenCV 3.0中,你可以使用`cv2.xfeatures2d.SIFT_create()`来创建一个SIFT对象。然后,你可以使用`detectAndCompute()`方法来检测并计算图像的关键点和特征描述符。通过调用这个方法,你将得到检测到的关键点和对应的特征描述符。 接下来,我们可以使用RANSAC(随机样本一致性)算法来剔除误匹配点。RANSAC算法能够通过随机选择样本子集并估计模型参数来寻找数据中的局内点。在OpenCV 3.0中,你可以使用`cv2.RANSAC`作为参数来创建一个RANSAC对象。然后,你可以使用`findHomography()`方法来计算通过RANSAC算法筛选后的匹配点之间的透视变换矩阵。这个矩阵可以用来剔除误匹配点。 总结一下,OpenCV 3.0可以通过`cv2.xfeatures2d.SIFT_create()`方法进行SIFT特征提取,并使用RANSAC算法来剔除误匹配点。这两个功能都是非常有用的计算机视觉任务,能够帮助我们更好地处理和分析图像。 ### 回答3: 在OpenCV 3.0中,可以使用SIFT算法进行图像的特征提取,并采用RANSAC算法剔除误匹配点。 SIFT(Scale-Invariant Feature Transform)特征提取算法是一种基于尺度空间的特征提取方法,它可以提取图像中的稳定特征点和其对应的描述子。在OpenCV中,可以使用sift.detectAndCompute()函数来提取图像的SIFT特征点和描述子。 RANSAC(Random Sample Consensus)算法是一种鲁棒的参数估计算法,它可以从一组数据中剔除异常点,从而得到准确的模型参数。在特征匹配中,可以使用RANSAC算法来剔除误匹配点,以提高匹配的准确性。 具体实现的步骤如下: 1. 导入OpenCV和Numpy库,并读取需要进行特征匹配的两幅图像。 ```python import cv2 import numpy as np img1 = cv2.imread('image1.jpg', 0) img2 = cv2.imread('image2.jpg', 0) ``` 2. 创建SIFT对象,并使用sift.detectAndCompute()函数提取图像的SIFT特征点和描述子。 ```python sift = cv2.SIFT_create() kp1, des1 = sift.detectAndCompute(img1, None) kp2, des2 = sift.detectAndCompute(img2, None) ``` 3. 使用FLANN匹配器对两幅图像的描述子进行匹配。 ```python FLANN_INDEX_KDTREE = 0 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params = dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) matches = flann.knnMatch(des1, des2, k=2) ``` 4. 运用RANSAC算法剔除误匹配点。 ```python good_matches = [] for m, n in matches: if m.distance < 0.7 * n.distance: good_matches.append(m) src_pts = np.float32([kp1[m.queryIdx].pt for m in good_matches]).reshape(-1, 1, 2) dst_pts = np.float32([kp2[m.trainIdx].pt for m in good_matches]).reshape(-1, 1, 2) M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) ``` 通过以上步骤,我们可以得到经过RANSAC算法筛选后的匹配点,并且可以通过M矩阵获取图像的对应关系。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值