OpenCV SURF图像拼接、配准和图像融合技术(一)

SURF的构建流程是:构建Hessian矩阵、H矩阵判别式、构建尺度空间、精确定位特征点、主方向确定、特征点描述子生成、误匹配点剔除、融合图像、优化连接处的图像。下面是 博主抄袭别人改进的//zjy 2021.7.19 周五 SURF图像融合#include <iostream> #include <stdio.h> #include "opencv2/core.hpp" #include "opencv2/core/utility.hpp" #inclu
摘要由CSDN通过智能技术生成

SURF的构建流程是:构建Hessian矩阵、H矩阵判别式、构建尺度空间、精确定位特征点、主方向确定、特征点描述子生成、误匹配点剔除、融合图像、优化连接处的图像。

下面是 博主抄袭别人改进的

//zjy  2021.7.19 周五   SURF图像融合
#include <iostream>  
#include <stdio.h>  
#include "opencv2/core.hpp"  
#include "opencv2/core/utility.hpp"  
#include "opencv2/core/ocl.hpp"  
#include "opencv2/imgcodecs.hpp"  
#include "opencv2/highgui.hpp"  
#include "opencv2/features2d.hpp"  
#include "opencv2/calib3d.hpp"  
#include "opencv2/imgproc.hpp"   
#include"opencv2/xfeatures2d.hpp"  
#include"opencv2/ml.hpp" 

using namespace cv;
using namespace std;
using namespace cv::xfeatures2d;
using namespace cv::ml;

void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst);

typedef struct     //结构体定义,126行-134行,four_corners_t是一个变量
{
   
	Point2f left_top;
	Point2f left_bottom;     //point2f代表2维,需要X,Y轴来确定
	Point2f right_top;
	Point2f right_bottom;
}four_corners_t;     

four_corners_t corners;

void CalcCorners(const Mat& H, const Mat& src)    //const保护数据的值不被修改
{
   
	double v2[] = {
    0, 0, 1 };//左上角
	double v1[3];//变换后的坐标值
	Mat V2 = Mat(3, 1, CV_64FC1, v2);  //列向量,CV_64FC164位浮点数,通道为1
	Mat V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
	V1 = H * V2;

	//左上角(0,0,1)
	cout << "V2: " << V2 << endl;
	cout << "V1: " << V1 << endl;
	corners.left_top.x = v1[0] / v1[2];
	corners.left_top.y = v1[1] / v1[2];

	//左下角(0,src.rows,1)
	v2[0] = 0;
	v2[1] = src.rows;
	v2[2] = 1;
	V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
	V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
	V1 = H * V2;
	corners.left_bottom.x = v1[0] / v1[2];
	corners.left_bottom.y = v1[1] / v1[2];

	//右上角(src.cols,0,1)
	v2[0] = src.cols;
	v2[1] = 0;
	v2[2] = 1;
	V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
	V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
	V1 = H * V2;
	corners.right_top.x = v1[0] / v1[2];
	corners.right_top.y = v1[1] / v1[2];

	//右下角(src.cols,src.rows,1)
	v2[0] = src.cols;
	v2[1] = src.rows;
	v2[2] = 1;
	V2 = Mat(3, 1, CV_64FC1, v2);  //列向量
	V1 = Mat(3, 1, CV_64FC1, v1);  //列向量
	V1 = H * V2;
	corners.right_bottom.x = v1[0] / v1[2];
	corners.right_bottom.y = v1[1] / v1[2];
}


int main()
{
   
	Mat a = imread("C:\\Users\\dell\\Desktop\\OpenCV project\\SURF\\surf_1.jpg", 1);//右图  
	Mat b = imread("C:\\Users\\dell\\Desktop\\OpenCV project\\SURF\\surf_2.jpg", 1);//左图

	Ptr<SURF> surf;            //创建方式和OpenCV2中的不一样,并且要加上命名空间xfreatures2d
							   //否则即使配置好了还是显示SURF为未声明的标识符  
	surf = SURF::create(800);

	BFMatcher matcher;         //实例化一个暴力匹配器
	Mat c, d;
	vector<KeyPoint> key1, key2;
	vector<DMatch> matches;    //DMatch是用来描述匹配好的一对特征点的类,包含这两个点之间的相关信息
							   //比如左图有个特征m,它和右图的特征点n最匹配,这个DMatch就记录它俩最匹配,并且还记录m和n的
							   //特征向量的距离和其他信息,这个距离在后面用来做筛选

	surf->detectAndCompute(a, Mat(), key1, c);//输入图像,输入掩码用于屏蔽源图像中的特定区域,输入特征点矢量数组 ,存放所有特征点的描述向量
	surf->detectAndCompute(b, Mat(), key2, d);//这个Mat行数为特征点的个数,列数为每个特征向量的尺寸,SURF是64(维)

	matcher.match
  • 3
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
以下是使用OpenCV进行图像拼接融合的步骤: 1. 特征点提取:使用ORB和SURF等算法提取两张图片中的特征点。 2. 特征点匹:使用OpenCV提供的特征点匹算法,如FLANN或Brute-Force等,将两张图片中的特征点进行匹。 3. 图像:通过计算匹的特征点之间的变换矩阵,将两张图片进行,使它们在同一坐标系下对齐。 4. 图像拼接:将两张图片进行拼接,可以使用OpenCV提供的拼接函数,如cv2.stitcher或cv2.createStitcher等。 5. 图像融合:将拼接后的图像进行融合,可以使用OpenCV提供的图像融合函数,如cv2.addWeighted等。 以下是一个使用ORB算法进行图像拼接融合的Python代码示例: ```python import cv2 # 读取两张图片 img1 = cv2.imread('image1.jpg') img2 = cv2.imread('image2.jpg') # 创建ORB特征点检测器 orb = cv2.ORB_create() # 在两张图片中分别检测特征点和描述符 kp1, des1 = orb.detectAndCompute(img1, None) kp2, des2 = orb.detectAndCompute(img2, None) # 使用Brute-Force算法进行特征点匹 bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) matches = bf.match(des1, des2) # 将匹的特征点按照距离进行排序 matches = sorted(matches, key=lambda x: x.distance) # 取前10个匹的特征点 good_matches = matches[:10] # 获取匹的特征点在两张图片中的坐标 src_pts = [kp1[m.queryIdx].pt for m in good_matches] dst_pts = [kp2[m.trainIdx].pt for m in good_matches] # 计算变换矩阵 M, mask = cv2.findHomography(np.float32(src_pts), np.float32(dst_pts), cv2.RANSAC, 5.0) # 将两张图片进行拼接 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) result[0:img2.shape[0], 0:img2.shape[1]] = img2 # 将拼接后的图像进行融合 blend = cv2.addWeighted(result[:, :img1.shape[1]], 0.5, result[:, img1.shape[1]:], 0.5, 0) # 显示结果 cv2.imshow('Result', blend) cv2.waitKey(0) cv2.destroyAllWindows() ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值