利用OPENCV实现在视频上绘图

由于视频是一帧帧刷新的,常见的绘图方法只适用于不变的Mat上,而视频播放下一帧之后上一帧所绘制的图像则随着上一帧被刷掉了,而MFC则是创建一块DC,在DC内画所以原理不同。为了实现在视频和摄像头画面中进行绘图,则需要将绘图点保存在容器中,并在每帧播放的时候都要进行绘图,才能实现连贯的绘图。而OPENCV利用Circle进行画曲线画出来的线是离散的很容易断,与MFC效果又差太远,故想出了利用Polylines和Circle同时绘画,重合出一条连贯的实线,但因此这种方法性能很差,不知有没有其他实现曲线的办法,如果有可以评论区教教我嘻嘻

#include<iostream>
#include<opencv2/opencv.hpp>
#include <opencv2/highgui/highgui_c.h>
#include <vector>
using namespace std;
using namespace cv;

bool g_bDrawing = false;
Point g_nCurrPoint;
Point g_nEndPoint;
vector<pair<Point, Point>> vecDrawPoint;
pair<Point, Point> tempPoint;
vector<Point> vecCircle;
vector<Point> vecpoly;
vector<vector<Point>> vecCirLine;

void onMouse(int event, int x, int y, int flag, void* param)
{
	Mat& img = *(cv::Mat*)param;

	switch (event)
	{
		//移动鼠标的时候
	case CV_EVENT_MOUSEMOVE:
	{
		if (g_bDrawing == true)
		{
			g_nEndPoint = Point(x, y);
			tempPoint.first = g_nCurrPoint;
			tempPoint.second = g_nEndPoint;
			vecCircle.push_back(g_nEndPoint);
			vecpoly.push_back(g_nEndPoint);
		}
	}
	break;
	//点击鼠标左键时
	case CV_EVENT_LBUTTONDOWN:
	{
		g_bDrawing = true;
		g_nCurrPoint = Point(x, y);
	}
	break;
	//松开鼠标左键时
	case CV_EVENT_LBUTTONUP:
	{
		g_bDrawing = false;
		g_nEndPoint = Point(x, y);
		if (g_nEndPoint != g_nCurrPoint)
		{
			pair<Point, Point> linePoint(g_nCurrPoint, g_nEndPoint);
			vecDrawPoint.push_back(linePoint);
		}
		vecpoly.clear();
	}
	break;
	}
}

void DrawRectangle(Mat matFrame)
{
	rectangle(matFrame, tempPoint.first, tempPoint.second, Scalar(255, 255, 0), 2);
	if (!vecDrawPoint.empty())
	{
		for (int i = 0; i < vecDrawPoint.size(); i++)
		{
			rectangle(matFrame, vecDrawPoint[i].first, vecDrawPoint[i].second, Scalar(255, 255, 0), 2);
		}
	}
}

void DrawLine(Mat matFrame)
{
	line(matFrame, tempPoint.first, tempPoint.second, Scalar(255, 255, 0), 1, CV_AA);
	if (!vecDrawPoint.empty())
	{
		for (int i = 0; i < vecDrawPoint.size(); i++)
		{
			line(matFrame, vecDrawPoint[i].first, vecDrawPoint[i].second, Scalar(255, 255, 0), 1, CV_AA);
		}
	}
}

void DrawCir(Mat matFrame)
{
	for (int i = 0; i < vecCircle.size(); i++)
	{
		circle(matFrame, vecCircle[i], 0, Scalar(255, 255, 0), 2, CV_AA);
	}
	if (!vecCircle.empty())
	{
		vecCirLine.push_back(vecpoly);
		for (int i = 0; i < vecCirLine.size(); i++)
		{
			polylines(matFrame, vecCirLine[i], false, Scalar(255, 255, 0), 2);
		}
	}
}

int main()
{
	int nDrawType = 2;//设置绘图类型  1:直线  2:矩形  3:曲线
	string strPath= "E:/test.avi";
	VideoCapture Vcap;
	VideoWriter writer(strPath, 1, Vcap.get(CAP_PROP_FPS), cv::Size(Vcap.get(CAP_PROP_FRAME_WIDTH),
		Vcap.get(CAP_PROP_FRAME_HEIGHT)),true);
	Vcap.open(0/*"视频文件路径"*/);//为0时获取第一个摄像头设备画面,为路径时则打开路径指向的视频文件
	if (!Vcap.isOpened())
	{
		return 0;
	}

	Mat matFrame;

	namedWindow("video", 0);
	setMouseCallback("video", onMouse, (void*)&matFrame);
	while (1)
	{
		Vcap >> matFrame;
		//Canny(matFrame, matCFrame, 20, 100,3);//边缘检测
		if (matFrame.empty())
		{
			break;
		}
		switch (nDrawType)
		{
			case 1:
				DrawLine(matFrame);//画直线
				break;
			case 2:
				DrawRectangle(matFrame);//画矩形
				break;
			case 3:
				DrawCir(matFrame);//画曲线
				break;
		default:
			break;
		}
		
		writer.write(matFrame);

		imshow("video", matFrame);
		if (waitKey(60) > 0)
		{
			break;
		}
	}
	Vcap.release();
	destroyAllWindows();

	return 0;
}

 

 

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 在使用Qt和OpenCV实现基于颜色的物体区分时,可以按照以下步骤进行操作: 1. 导入Qt和OpenCV的相关库和头文件。 2. 打开摄像头或者读取视频为输入源。 3. 读取每一帧图像。 4. 将图像从BGR色彩空间转换为HSV色彩空间,由于HSV色彩空间更适合进行颜色分析。 5. 设定目标物体的颜色范围,使用inRange函数进行颜色分割,得到目标物体的二值图像。 6. 对二值图像进行形态学操作,如腐蚀和膨胀,以消除噪声和填充目标物体内部空洞。 7. 使用findContours函数找到目标物体的轮廓。 8. 根据轮廓的特征,如面积、周长、外接矩形等,对目标物体进行筛选,去除不符合条件的轮廓。 9. 在原始图像上绘制出符合条件的目标物体轮廓。 10. 可以选择添加其他附加功能,如标记目标物体的中心点、显示物体跟踪trajectory等。 11. 循环执行步骤3至步骤10,实现实时的基于颜色的物体区分。 12. 释放摄像头或关闭视频文件。 13. 结束程序运行。 通过以上步骤,可以利用Qt和OpenCV实现基于颜色的物体区分,通过对目标物体颜色的提取和轮廓分析,实现对不同颜色物体的识别和分割。 ### 回答2: Qt是一种跨平台的应用程序框架,而OpenCV是一个功能强大的开源计算机视觉库。结合Qt和OpenCV,我们可以实现基于颜色的物体区分。 首先,要使用Qt和OpenCV,在Qt项目中包括OpenCV库并链接到项目中。接下来,我们需要通过Qt提供的界面来获取图像。可以使用Qt的QCamera类来连接到摄像头并捕获实时图像,或者使用Qt的QFileDialog类来选择所需的图像文件。 一旦我们获得了图像,我们就可以使用OpenCV的函数进行图像处理和分析。对于基于颜色的物体区分,首先需要将图像从RGB颜色空间转换为HSV颜色空间。在HSV颜色空间中,我们可以更容易地对颜色进行分析。 然后,我们可以根据所需颜色的HSV范围来创建一个掩码。掩码是一个二进制图像,其中白色像素表示在指定颜色范围内的像素,而黑色像素表示不在范围内的像素。我们可以使用OpenCV的inRange函数创建此掩码。 接下来,我们可以使用掩码将原始图像中的物体分割出来。可以使用OpenCV的bitwise_and函数将原始图像与掩码进行按位与操作,从而只保留掩码中的白色区域。 最后,我们可以在Qt界面中显示分割出的物体。可以使用Qt的QPixmap类将OpenCV的Mat对象转换为Qt的QImage对象并显示在Qt的窗口上。 总结起来,使用Qt和OpenCV实现基于颜色的物体区分将涉及连接到摄像头或选择图像文件,将图像从RGB转换为HSV颜色空间,创建颜色范围掩码,使用掩码分割图像和在Qt界面中显示结果。 ### 回答3: Qt与OpenCV结合可以实现基于颜色的物体区分。首先,我们需要使用Qt框架实现图像的读取和显示功能。通过Qt的图片处理类,我们可以方便地读取和显示图片。 然后,我们集成OpenCV库,通过Qt的信号和槽机制与OpenCV库进行交互。使用OpenCV库的颜色空间转换函数,我们可以将图片转换为HSV色彩空间。HSV色彩空间相对于RGB色彩空间更适合颜色分析。 接下来,我们可以使用OpenCV库的阈值函数来分割图像中的不同颜色区域。通过设置合适的阈值,我们可以将目标物体的颜色从背景中区分出来。之后,我们可以通过OpenCV库的形态学操作对图像进行进一步处理,如腐蚀和膨胀,以消除噪声和填充空洞。 最后,使用Qt的绘图功能,我们可以在原始图像上绘制标记框或者轮廓,以展示区分出的目标物体。同时,可以利用Qt的界面设计功能,添加一些按钮和滑动条等控件,以便用户可以交互式地调整参数,实时观察效果。 总之,通过Qt的图像处理和OpenCV的颜色分割技术,我们可以实现基于颜色的物体区分。这样的系统可以应用于许多领域,如机器人视觉、工业自动化等。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值