获取摄像头视频流
cam = cv2.VideoCapture(0) #打开摄像头
while (cam.isOpened()):
ret,frame = cam.read() #获取视频流
这一步没啥好说的,最基本的API调用
对每一帧图像进行处理
将每一帧图像写入内存(与写入文件类似),然后读出为字节用于网络传输.可以想象为先将每一帧图像都保存为文件,再发送文件,不过写入文件太慢,这里直接写入内存
def array_pic_to_stream(pic):
stream = BytesIO()
pic = Image.fromarray(pic)
pic.save(stream, format=“JPEG”)
jepg = stream.getvalue()
stream.close()
return jepg
可以将BytesIO理解为一个保存在内存中的文件,通过写入,写出操作将numpy.array()类型数据转化为二进制文件
对于屏幕,使用Image的截图功能截取每一帧图像,将其封装成字节流
获取视频流
img = ImageGrab.grab()
out = img.resize((612,480))
这里要注意,之所以对图片的大小进行削减是因为UDP传输的包的大小是有限制的,好像是六万五左右,而屏幕分辨率太高,所以 必须缩减
对每一帧图像进行处理
将Image对象转化为数组,在转化为字节流
def pic_to_array(pic):
stram = BytesIO()
pic.save(stram, format=“JPEG”)
array_pic = numpy.array(Image.open(stram))
st