opencv--使用opencv实现旋转角度的模板匹配

下面的例子是简单的使用opencv 实现的模板匹配流程,其中时间性能和精确度还需要调整,如果直接使用会出问题,所以这个只是例子,根据代码原理可以实现尺度变化的模板匹配和旋转尺度变化同时,具体根据实现的旋转代码进一步实现,但是就结果而言和halcon的模板匹配差距较大,性能更不行,因此仅供参考 ,同时本人整理了两个使用各种加速的高性能版本,有兴趣的可以下载看看

struct MatchResult
{
	std::vector<cv::Point> points;
	double angle;
	double score;
	MatchResult(std::vector<cv::Point> points, double angle, double score) :points(points), angle(angle), score(score) {};
};

//旋转图像
cv::Mat ImageRotate(cv::Mat image, double angle)
{
	cv::Mat newImg;
	cv::Point2f pt = cv::Point2f((float)image.cols / 2, (float)image.rows / 2);
	cv::Mat M = cv::getRotationMatrix2D(pt, angle, 1.0);
	cv::warpAffine(image, newImg, M, image.size());
	return newImg;
}
std::vector<cv::Point> GetRotatePoints(cv::Size size, double angle) {
	// 定义模板图像的中心点
	cv::Point2f center(size.width / 2.0, size.height / 2.0);

	// 计算旋转矩阵
	cv::Mat rotationMatrix = cv::getRotationMatrix2D(center, angle, 1.0);

	// 定义模板图像的四个顶点
	std::vector<cv::Point2f> srcPoints = {
		cv::Point2f(0, 0),
		cv::Point2f(size.width, 0),
		cv::Point2f(size.width, size.height),
		cv::Point2f(0, size.height)
	};

	// 存储旋转后的四个顶点
	std::vector<cv::Point2f> dstPoints(4);

	// 进行仿射变换
	cv::transform(srcPoints, dstPoints, rotationMatrix);

	// 将结果转换为cv::Point类型并返回
	std::vector<cv::Point> resultPoints(4);
	for (int i = 0; i < 4; ++i) {
		resultPoints[i] = cv::Point(cvRound(dstPoints[i].x), cvRound(dstPoints[i].y));
	}

	return resultPoints;
}


/*
旋转模板匹配函数(通过图像金字塔、增大旋转步长来提升匹配速度)
Mat src:原图像
Mat model:模板图
double startAngle:旋转的最小角
double endAngle:旋转的最大角
double firstStep:角度旋转时的最大步长
double secondStep:角度旋转时的最小步长
int numLevels = 0:图像金字塔缩放次数
*/
MatchResult rotateMatch(cv::Mat src, cv::Mat model, double startAngle, double endAngle, double firstStep, double secondStep, int numLevels = 0) {
	//对模板图像和待检测图像分别进行图像金字塔下采样
	for (int i = 0; i < numLevels; i++) {
		cv::pyrDown(src, src, cv::Size(src.cols / 2, src.rows / 2));
		cv::pyrDown(model, model, cv::Size(model.cols / 2, model.rows / 2));
	}

	cv::Mat rotatedImg, result;
	double score = -1;
	cv::Point location;
	double angle;

	bool isSecond = false;
	while (true) {
		for (double curAngle = startAngle; curAngle <= endAngle; curAngle += firstStep) {
			rotatedImg = ImageRotate(model, curAngle);
			//imshow("rotated", rotatedImg);
			//imshow("src-pyrDown", src);
			//waitKey();

			matchTemplate(src, rotatedImg, result, cv::TM_CCOEFF_NORMED);
			double minval, maxval;
			cv::Point minloc, maxloc;
			cv::minMaxLoc(result, &minval, &maxval, &minloc, &maxloc);
			if (maxval > score)
			{
				location = maxloc;
				score = maxval;
				angle = curAngle;
			}
		}

		if (isSecond && firstStep<= secondStep) break;

		startAngle = angle - firstStep;
		endAngle = angle + firstStep;

		if ((endAngle - startAngle) / 5 > secondStep) {
			firstStep = (endAngle - startAngle) / 5;
		}
		else {
			firstStep = secondStep;
			isSecond = true;
		}
	}

	cv::Point finalPoint = cv::Point(location.x * pow(2, numLevels), location.y * pow(2, numLevels));
	std::vector<cv::Point> points = GetRotatePoints(cv::Size(model.cols * pow(2, numLevels), model.rows * pow(2, numLevels)), angle);

	for (int j = 0; j < points.size(); j++)
	{
		points[j].x += finalPoint.x;
		points[j].y += finalPoint.y;
	}

	return MatchResult(points, angle, score);
}

int main() {
	//读取所有图像
	std::vector<cv::Mat> imgs;
	std::string imageName;
	std::string path = "E:\\prj\\shape_based_matching-master\\test\\board\\test";
	std::vector<std::string> img_paths;
	cv::glob(path, img_paths);
	for (auto& p : img_paths)
	{
		cv::Mat img = cv::imread(p);
		imgs.push_back(img);
	}
	cv::Mat templateImg = cv::imread("E:\\prj\\shape_based_matching-master\\test\\board\\train.png");
	cv::Rect box(cv::Point(135, 120), cv::Point(470, 365));
	//cv::rectangle(drawFrame, box, cv::Scalar(0, 255, 0), 2);
	templateImg = templateImg(box).clone();
	int i = 0;
	for (cv::Mat img : imgs)
	{
		i += 1;
		MatchResult matchResult = rotateMatch(img, templateImg, 0, 360, 30, 0.1, 0);
		std::vector<cv::Point> points = matchResult.points;
		std::cout << i << "- 角度:" << matchResult.angle << std::endl;
		std::cout << i << "- 得分:" << matchResult.score << std::endl;

		cv::line(img, points[0], points[1], cv::Scalar(255, 0, 0), 2);
		cv::line(img, points[1], points[2], cv::Scalar(255, 0, 0), 2);
		cv::line(img, points[2], points[3], cv::Scalar(255, 0, 0), 2);
		cv::line(img, points[3], points[0], cv::Scalar(255, 0, 0), 2);

		cv::Point pt1 = cv::Point((points[0].x + points[3].x) / 2, (points[0].y + points[3].y) / 2);
		cv::Point pt2 = cv::Point((points[1].x + points[2].x) / 2, (points[1].y + points[2].y) / 2);
		cv::arrowedLine(img, pt2, pt1, cv::Scalar(0, 0, 255), 2);

		cv::imshow("img_" + std::to_string(i), img);
		cv::waitKey(0);
	}

	return 0;
}

结果如下:

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
OpenCV是一个流行的计算机视觉库,里面包含了许多图像处理和机器视觉算法。其中模板匹配是其中一种常用的图像相似性比较方法。它可以用于在一幅图像中寻找特定模式的位置。 在模板匹配中,通常需要考虑到图像的缩放和旋转。对于缩放,OpenCV提供了多种缩放方法,如最近邻插值、双线性插值和像素关系重采样等。通过使用这些缩放方法,可以将模板图像和目标图像统一到相同的尺寸,以便进行匹配。缩放后的模板图像和目标图像的像素值将按照一定的插值规则进行重新计算,以保持图像的几何形状和内容的相对关系。 而对于旋转OpenCV中提供了相关的旋转函数,例如`getRotationMatrix2D`和`warpAffine`。`getRotationMatrix2D`可以根据给定的旋转角度、缩放因子和旋转中心点计算旋转矩阵,而`warpAffine`可以使用旋转矩阵将图像进行旋转变换。通过这些函数,可以实现对模板图像和目标图像进行旋转操作,以解决图像在不同角度上的匹配问题。 在使用模板匹配进行缩放和旋转时,需要注意选择适当的匹配方法,例如平方差匹配、相关系数匹配或归一化互相关匹配等,以及确定合适的匹配阈值,以提高匹配的准确性和稳定性。 总而言之,通过OpenCV模板匹配方法,我们可以对图像进行缩放和旋转,以便在不同尺度和角度上寻找特定模式的位置。这使得我们能够更好地处理图像的变形和旋转等问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值