[windows][C++]opencv读取rtsp图像处理后使用ffmpeg推流rtmp

[python][ubuntu]opencv读取rtsp图像处理后推流rtmp

Windows10下搭建nginx-rtmp流媒体服务器

参考上述链接解决环境等问题
自行替换代码中的rtsp、rtmp地址和ffmpeg位置
样例代码设置流的分辨率为1280x720、30帧,亦可执行替换
推流之后可使用potplayer等播放器打开rtmpUrl来获取流,也可通过opencv获取流并播放

#include <iostream>
#include <vector>
#include <string>
#include <opencv2/opencv.hpp>
#include <windows.h>

using namespace std;
using namespace cv;

const char* rtspUrl = "rtsp://admin:lj123456@192.168.1.64:554/h264/ch1/main/av_stream";
const char* rtmpUrl = "rtmp://localhost:1900/live/test";
const char* ffmpegPath = R"(D:\dependency\ffmpeg-4.4.1-full_build\bin\ffmpeg.exe)";

Size streamSize = { 1280,720 };

string join(const vector<string>& sequence, const string& separator)
{
	std::string result;
	for (size_t i = 0; i < sequence.size(); ++i)
		result += sequence[i] + ((i != sequence.size() - 1) ? separator : "");
	return result;
}

void videoTest() {
	VideoCapture cap(rtspUrl);
	vector<string> arguments = {
		ffmpegPath,
		"-y", "-an",
		"-f", "rawvideo",
		"-vcodec", "rawvideo",
		"-pix_fmt", "bgr24",
		"-s", "1280x720",
		"-r", "30",
		"-i", "-",
		"-c:v", "libx264",
		"-pix_fmt", "yuv420p",
		"-preset", "ultrafast",
		"-f", "flv",
		rtmpUrl };
	string cmd = join(arguments, " ");
	cout << cmd << endl;
	SECURITY_ATTRIBUTES sa;
	sa.nLength = sizeof(SECURITY_ATTRIBUTES);
	sa.lpSecurityDescriptor = NULL;
	sa.bInheritHandle = TRUE;

	//管道创建
	HANDLE hwrite, hread;
	if (CreatePipe(&hread, &hwrite, &sa, 0) == NULL)
	{
		cout << "pPipe Create error!" << endl;
		return;
	}

	//进程创建
	STARTUPINFO si;
	ZeroMemory(&si, sizeof(STARTUPINFO));
	si.cb = sizeof(STARTUPINFO);
	si.dwFlags = STARTF_USESTDHANDLES | STARTF_USESHOWWINDOW;
	si.wShowWindow = SW_SHOW;
	si.hStdError = GetStdHandle(STD_ERROR_HANDLE);
	si.hStdOutput = hwrite;
	si.hStdInput = hread;

	PROCESS_INFORMATION pi;
	//创建子进程
	if (!CreateProcess(NULL, cmd.data(), NULL, NULL, TRUE, 0, NULL, NULL, &si, &pi)) {
		cout << "进程创建错误" << endl;
		CloseHandle(hread);
		CloseHandle(hwrite);
		hread = NULL;
		hwrite = NULL;
		return;
	}

	CloseHandle(pi.hThread);
	CloseHandle(pi.hProcess);

	Mat frame;
	while (cap.isOpened()) {
		cap >> frame;
		cv::resize(frame, frame, streamSize);
		imshow("rtsp", frame);
		if (waitKey(1) == 27)
			break;
		DWORD txcount = 0;
		if (!WriteFile(hwrite, frame.data, frame.step[0] * frame.rows, &txcount, nullptr)) {
			cout << "WriteFile failed\n";
			continue;
		}
	}
}

int main() {
	videoTest();
}


  • 2
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
### 回答1: 好的,我可以用中文回答您的问题。 使用OpenCV读取RTSP视频流并进行图像处理可以分为以下几个步骤: 1. 导入OpenCV库并打开RTSP流 您可以使用cv2库中的VideoCapture函数打开RTSP流。例如: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") ``` 其中,`username`和`password`是您的RTSP流的用户名和密码,`ip_address`是您的RTSP流的IP地址,`port`是RTSP流的端口,`path`是您的视频流的路径。 2. 读取视频流中的帧 使用VideoCapture对象的read方法,可以读取视频流中的帧。例如: ```python ret, frame = cap.read() ``` 其中,`ret`是一个布尔值,用于检测是否成功读取了一帧,`frame`是当前帧的图像数据。 3. 对图像进行处理 您可以使用OpenCV的各种函数对帧进行处理,例如滤波、二值化、边缘检测等等。 ```python gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) ``` 这里的代码将读取到的帧先转换为灰度图像,然后对其进行高斯滤波和Canny边缘检测。 4. 显示处理后的图像并进行流畅推流 最后,您可以使用imshow函数将处理后的图像显示出来,并使用waitKey函数等待一段时间以流畅地推流视频。例如: ```python cv2.imshow("Processed Frame", edges) cv2.waitKey(1) ``` 其中,`1`表示等待1毫秒。 完整的代码示例: ```python import cv2 cap = cv2.VideoCapture("rtsp://username:password@ip_address:port/path") while True: ret, frame = cap.read() if not ret: break gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray, (5, 5), 0) edges = cv2.Canny(blur, 100, 200) cv2.imshow("Processed Frame", edges) cv2.waitKey(1) cap.release() cv2.destroyAllWindows() ``` 希望这能帮到您! ### 回答2: 使用OpenCV读取RTSP流需要使用VideoCapture来打开RTSP URL,并使用read方法读取每一帧图像。然后,我们可以将读取到的每一帧进行图像处理操作,例如裁剪、缩放、滤波等等。最后,我们可以使用OpenCV的VideoWriter将处理后的图像推流出去。 首先,我们需要引入OpenCV库并创建一个VideoCapture对象,将RTSP URL作为参数传入。然后,使用while循环不断读取每一帧图像,直到读取到最后一帧或者用户中断操作。 然后,我们可以对每一帧图像进行预处理操作,例如使用cv2.crop裁剪图像的特定区域,使用cv2.resize缩放图像的尺寸,使用cv2.filter2D进行滤波等。处理后的图像可以通过cv2.imshow显示出来,或者通过cv2.imwrite保存为本地文件。 最后,我们需要创建一个VideoWriter对象,指定输出文件的编码方式、帧率和分辨率等参数,并利用write方法将处理后的图像写入推流推流的终止可以通过按下键盘上的"q"键触发。 示例代码如下: ```python import cv2 # 打开RTSP流 cap = cv2.VideoCapture("rtsp://example.com/live") # 设置输出编码方式、帧率和分辨率 fourcc = cv2.VideoWriter_fourcc(*'mp4v') fps = cap.get(cv2.CAP_PROP_FPS) width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)) height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT)) # 创建VideoWriter对象 out = cv2.VideoWriter("output.mp4", fourcc, fps, (width, height)) while True: # 读取图像帧 ret, frame = cap.read() if not ret: break # 图像处理操作 # ... # 显示处理后的图像 cv2.imshow("Frame", frame) # 写入推流 out.write(frame) # 按下q键退出推流 if cv2.waitKey(1) & 0xFF == ord('q'): break # 释放资源 cap.release() out.release() cv2.destroyAllWindows() ``` 通过上述代码,我们可以利用OpenCV实现读取RTSP图像并进行处理后推流的功能。当然,在实际应用中,还可以根据具体需求进行更复杂的图像处理操作,以及将推流输出改为其他形式,例如推流到网络服务器或者其他设备等。 ### 回答3: OpenCV是一个开源的计算机视觉和图像处理库,它提供了很多用于处理图像和视频的函数和算法。我们可以使用OpenCV读取RTSP流并进行图像处理,然后将处理后的图像推流到其他设备或平台。 首先,我们需要安装OpenCV库,并创建一个RTSP流对象。我们可以使用`cv2.VideoCapture()`函数来读取RTSP流。例如,下面的代码将创建一个读取RTSP流的对象: ``` import cv2 rtsp_stream_url = "rtsp://example.com/your_stream_url" cap = cv2.VideoCapture(rtsp_stream_url) ``` 接下来,我们可以使用OpenCV提供的函数和算法来对图像进行处理。例如,我们可以使用`cv2.cvtColor()`函数将图像转换为灰度图像: ``` ret, frame = cap.read() gray_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) ``` 然后,我们可以将处理后的图像推流到其他设备或平台。有很多方法可以实现这一点,具体取决于我们想要推流到哪里。例如,我们可以使用FFmpeg推流。首先,我们需要将处理后的图像保存为图片文件。然后,我们可以使用以下命令将图片文件推流RTMP服务器: ``` ffmpeg -re -i your_image.jpg -vcodec copy -f flv rtmp://example.com/your_rtmp_server_url ``` 您也可以使用其他方法将图像推流到其他设备或平台,具体取决于您的需求。无论您选择哪种方法,都需要确保设备或平台支持推流和相应的协议。 综上所述,我们可以使用OpenCV库来读取RTSP流并对图像进行处理,然后将处理后的图像推流到其他设备或平台。具体的实现细节取决于您的需求和选择的推流方法。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值