opencv--将本地摄像头数据转换成ip摄像头数据流,并在客户端获取该流进行显示

本文介绍了在树莓派上使用OpenCV、Flask和pyautogui库实现从本地摄像头获取数据并推送到客户端进行实时显示的过程。由于树莓派性能限制,出现了图像帧读取错误。为了解决这一问题,尝试了两种方法:一是通过调整图像大小,二是使用上采样和下采样技术。最终实现了稳定传输并展示了成功的效果。
摘要由CSDN通过智能技术生成

项目介绍:
在本项目中,实现从本地摄像头获取数据帧,然后将其转换成ip摄像头数据流并在客户端通过opencv代码实时获取该图像数据进行显示:
当然也能在浏览器通过输入地址进行视频的访问

方式一:Flask推流

项目所用库版本:
Flask : 2.0.1
matplotlib : 3.4.2
numpy : 1.21.1
python : 3.7.3
PyAutoGUI : 0.9.53
opencv : 3.3.0
实验平台 :树莓派


服务器端:

import pyautogui
from matplotlib import pyplot as plt
import cv2
import numpy as np
import os
from flask import Flask, render_template, Response

app = Flask(__name__)


def gen():
	while(True):
		img = pyautogui.screenshot()
		img=np.array(img)
		eye = img[0:200,0:200]
		image = cv2.imencode('.jpg', eye)[1].tobytes()
		yield (b'--frame\r\n'
		       b'Content-Type: image/jpeg\r\n\r\n' + image + b'\r\n')

	#out.write(eye)
	#counter += 1
	#cv2.imwrite('./test.png',eye)
	#os.system('scp test.png ceremony@192.168.1.131:/home/ceremony/png')
	#cv2.imshow('sad',eye)
	#cv2.waitKey(10)
	#os.system('rm test.png')
@app.route('/video_feed')
def video_feed():
    return Response(gen(), mimetype='multipart/x-mixed-replace; boundary=frame')

app.run(host='0.0.0.0',port=5000)	

说明:因为这里我手里没有摄像头,因此使用了pyautogui库实时截取桌面的某一区域,将其转为numpy格式(因为在opencv中,使用read读取的fram格式就是numpy的,因此这里将其转换为numpy格式)
客户端:
使用opencv读取该ip摄像头的数据流,并实时显示:

import cv2

url = 'http://192.168.1.220:5000/video_feed'
cap = cv2.VideoCapture(url)
while(cap.isOpened()):
	ret, frame = cap.read()
	cv2.imshow('frame',frame)
	cv2.waitKey(10)

效果:
在这里插入图片描述
注意:
上述是通过截屏的方式进行的,在使用真实的摄像头时,不对服务器端进行设置在浏览器中是完全可以访问的,但是如果通过上面的opencv的代码进行获取就会出问题:会报如下错误:

Assertion failed (size.width>0 && size.height>0) in imshow, file /home/pi/opencv-3.3.0/modules/highgui/src/window.cpp, line 325
Traceback (most recent call last):
  File "read_flask.py", line 7, in <module>
    cv2.imshow('frame',frame)
cv2.error: /home/pi/opencv-3.3.0/modules/highgui/src/window.cpp:325: error: (-215) size.width>0 && size.height>0 in fun

出现上面错误并不是因为我们的代码有问题,而是应为树莓派羸弱的性能,导致客户端一次不能读取完一帧图片数据,因此该图片帧就是损坏的,当然不能显示了
解决方式
在服务器端对摄像头的帧数据进行截取,植上传一部分,这里为了还原图片最大真实情况,我截取了200*200的图片中间区域进行试验。
当然最有效的方法还是对图像进行上采样和下采样,在服务器端,我们对图像进行下采样,使图像大小变为原来一般,在客户端对图像进行上采样,使图像扩大为原来的2倍
通过截取图片大小进行解决
服务器端代码:

import pyautogui
from matplotlib import pyplot as plt
import cv2
import numpy as np
import os
from flask import Flask, render_template, Response

app = Flask(__name__)

cap = cv2.VideoCapture(0)
cap.set(3,640) # set Width
cap.set(4,480) # set Height
def gen():
	while(True):
		#img = pyautogui.screenshot()
		#img=np.array(img)
		ret, frame = cap.read()
		eye = frame[220:420,140:340]
		#ret, jpeg = cv2.imencode('.jpg', eye)
		#re_img = jpeg.tobytes()
		image = cv2.imencode('.jpg', eye)[1].tobytes()
		yield (b'--frame\r\n'
		       b'Content-Type: image/jpeg\r\n\r\n' + image + b'\r\n')
		cv2.waitKey(20)

	#out.write(eye)
	#counter += 1
	#cv2.imwrite('./test.png',eye)
	#os.system('scp test.png ceremony@192.168.1.131:/home/ceremony/png')
	#cv2.imshow('sad',eye)
	#cv2.waitKey(10)
	#os.system('rm test.png')
@app.route('/video_feed')
def video_feed():
    return Response(gen(), mimetype='multipart/x-mixed-replace; boundary=frame')

app.run(host='0.0.0.0',port=5000)	

客户端代码:

import cv2

url = 'http://192.168.1.220:5000/video_feed'
cap = cv2.VideoCapture(url)
while(True):
	ret, frame = cap.read()
	cv2.imshow('frame',frame)
	cv2.waitKey(50)

效果如下:
在这里插入图片描述
通过上下采样进行解决
服务器端代码:

import pyautogui
from matplotlib import pyplot as plt
import cv2
import numpy as np
import os
from flask import Flask, render_template, Response

app = Flask(__name__)

cap = cv2.VideoCapture(0)
cap.set(3,640) # set Width
cap.set(4,480) # set Height
def gen():
	while(True):
		#img = pyautogui.screenshot()
		#img=np.array(img)
		ret, frame = cap.read()
		eye=cv2.pyrDown(frame)
		#eye = frame[220:420,140:340]
		#ret, jpeg = cv2.imencode('.jpg', eye)
		#re_img = jpeg.tobytes()
		image = cv2.imencode('.jpg', eye)[1].tobytes()
		yield (b'--frame\r\n'
		       b'Content-Type: image/jpeg\r\n\r\n' + image + b'\r\n')
		cv2.waitKey(20)

	#out.write(eye)
	#counter += 1
	#cv2.imwrite('./test.png',eye)
	#os.system('scp test.png ceremony@192.168.1.131:/home/ceremony/png')
	#cv2.imshow('sad',eye)
	#cv2.waitKey(10)
	#os.system('rm test.png')
@app.route('/video_feed')
def video_feed():
    return Response(gen(), mimetype='multipart/x-mixed-replace; boundary=frame')

app.run(host='0.0.0.0',port=5000)	

客户端代码:

import cv2

url = 'http://192.168.1.220:5000/video_feed'
cap = cv2.VideoCapture(url)
while(True):
	ret, frame = cap.read()
	dst = cv2.pyrUp(frame)
	cv2.imshow('frame',dst)
	cv2.waitKey(1)

效果:
在这里插入图片描述

Expected boundary '--' not found, instead found a line of 127 bytes
该问题参考文章:
链接1
链接2
链接3
链接4
链接5

flask参考文章:链接

其他方法:
1、搭建USB摄像头转RTSP服务器的多种方法
2、搭建USB摄像头转RTSP服务器的三种方法

3、搭建USB摄像头转RTSP服务器的多种方法
4、opencv 获取rtsp流媒体视频的实现方法
ffserver不存在解决

方式二:MJPG-streamer进行推流

参考链接

在Java使用OpenCV从网络摄像头获取视频流并将其保存到本地文件,你需要包含OpenCV的Java库,并创建一个简单的循环来读取帧并写入文件。下面是一个基本的示例代码,假设网络摄像头的URL已经准备好: 首先,确保你的项目已包含OpenCV的Java依赖,例如通过Maven或Gradle添加如下依赖: **Maven:** ```xml <dependency> <groupId>org.bytedeco</groupId> <artifactId>javacpp-presets-opencv</artifactId> <version>4.5.4-1.6.3</version> </dependency> ``` **Gradle:** ```groovy implementation 'org.bytedeco:javacpp-presets-opencv:4.5.4-1.6.3' ``` 现在,我们创建一个名为`NetworkCameraRecorder.java`的类: ```java import org.bytedeco.opencv.opencv_core.*; import org.bytedeco.opencv.opencv_videoio.*; import java.io.FileOutputStream; import java.io.IOException; public class NetworkCameraRecorder { private static final String CAMERA_URL = "http://your-camera-url/stream.mjpg"; // 替换为实际摄像头地址 private VideoCapture camera; private FileOutputStream fileOutputStream; private Mat frame; public void startRecording(String outputFile) { try { camera = new VideoCapture(CAMERA_URL); camera.set(CAP_PROP_BUFFERSIZE, 1); // 设置缓冲大小,减少延迟 camera.set(CAP_PROP_FRAME_WIDTH, 640); // 设置视频尺寸,可以根据需要调整 camera.set(CAP_PROP_FRAME_HEIGHT, 480); fileOutputStream = new FileOutputStream(outputFile); VideoWriter videoWriter = new VideoWriter(outputFile, VideoWriter.FOURCC('M', 'J', 'P', 'G'), camera.get(CAP_PROP_FPS), (int) camera.get(CAP_PROP_FRAME_WIDTH), (int) camera.get(CAP_PROP_FRAME_HEIGHT)); while (camera.isOpened()) { Mat frameRead = new Mat(); camera.read(frameRead); if (!frameRead.isEmpty()) { // 将帧转换为BGR并写入文件 Imgcodecs.imencode(".avi", frameRead, frame); videoWriter.write(frame); fileOutputStream.write(frame.data, 0, frame.step[0]); } else { System.out.println("Failed to read frame from camera."); } // 稍微等待,以便下一次读取 Thread.sleep(1000 / 30); // 控制帧率,这里假设30fps } camera.release(); videoWriter.release(); fileOutputStream.close(); } catch (IOException | InterruptedException | RuntimeException e) { e.printStackTrace(); } } } ``` 在这个例子,你可以实例化`NetworkCameraRecorder`,然后调用`startRecording()`方法来开始录制: ```java NetworkCameraRecorder recorder = new NetworkCameraRecorder(); recorder.startRecording("output.avi"); // 输出文件名 ``` 请注意,由于网络摄像头的连接可能会不稳定,这段代码可能需要适当的错误处理和重试机制。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

思禾

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值