将多路视频合并为1路进行显示

在使用华为hi lens kit 设备时,由于只有一个HDMI输出口,所以需要将多路视频或者结果进行合并,形成一路视频显示在HDMI上。
做法思路是将多路视频读取过来,然后进行颜色转换,图像大小转换,比如进行4路显示,就将图像的横纵坐标都缩小一倍;若要左右2路显示,则只需要缩小宽度一倍。然后进行堆叠即可,如横向堆叠,纵向堆叠。

#将多路视频合并为1路
import hilens
import cv2
import numpy as np

# 调整图像大小
net_h = 360
net_w = 640
# 预处理:缩放尺寸
def preprocess(img_data):
    new_image = cv2.resize(img_data, (net_w, net_h))
    return new_image


def run():
    # 构造摄像头
    cap1 = hilens.VideoCapture()
    cap2 = hilens.VideoCapture("rtsp://.../101")
    cap3 = hilens.VideoCapture("rtsp://.../101")
    cap4 = hilens.VideoCapture("rtsp://.../101")
    
    
    disp = hilens.Display(hilens.HDMI)
    
    while True:
        # 获取一帧画面
        frame1 = cap1.read()
        frame2 = cap2.read()
        frame3 = cap3.read()
        frame4 = cap4.read()
        
        frame1_resize = preprocess(frame1)
        frame2_resize = preprocess(frame2)
        frame3_resize = preprocess(frame3)
        frame4_resize = preprocess(frame4)
        
        
        # 使用opencv进行颜色转换
        bgr1 = cv2.cvtColor(frame1_resize, cv2.COLOR_YUV2BGR_NV21)
        bgr2 = cv2.cvtColor(frame2_resize, cv2.COLOR_YUV2BGR_NV21)
        bgr3 = cv2.cvtColor(frame3_resize, cv2.COLOR_YUV2BGR_NV21)
        bgr4 = cv2.cvtColor(frame4_resize, cv2.COLOR_YUV2BGR_NV21)
        
        
        
        frameUp = np.hstack((bgr1, bgr2))#在水平方向上堆叠
        frameDown = np.hstack((bgr3, bgr4))
        frame = np.vstack((frameUp, frameDown))#在垂直方向上堆叠
        
        # 使用hilens进行颜色转换
        nv21 = hilens.cvt_color(frame, hilens.BGR2YUV_NV21)

        #输出到HDMI
        disp.show(nv21)

if __name__ == '__main__':
	#参数【hello】要与基本信息的【检验值】一致。详情请查看开发指南
    hilens.init("hello")
    run()
    hilens.terminate()
[参考文章](https://blog.csdn.net/kingroc/article/details/86309079)
YOLOv5(You Only Look Once version 5)是一种流行的物体检测算法,特别适合实时应用。如果要将YOLOv5部署到多路摄像头上,通常需要经过以下几个步骤: 1. **安装依赖**:首先,确保已经安装了PyTorch库以及YOLOv5的Python库。可以使用pip安装yolov5: ``` pip install pyyaml torch torchvision fastai wbf ``` 2. **配置文件**:创建或修改YOLOv5的配置文件(如yolov5s.yaml),添加多路摄像头输入源。每个摄像头输入会作为单独的数据集处理。 3. **数据预处理**:对每个摄像头的视频进行实时预处理,将其转换成模型所需的输入尺寸,并进行归一化。 4. **实例化模型**:根据需要选择YOLOv5的不同版本(如`s`, `m`, `l`等),加载预训练权重,并设置模型进入检测模式。 ```python from yolov5 import models, utils device = "cuda" if torch.cuda.is_available() else "cpu" model = models.yolov5s.load_from_disk("path/to/weights/yolov5s.pt").to(device) ``` 5. **摄像头捕获**:使用OpenCV或其他库连接摄像头并读取帧,然后传入模型进行物体检测。 ```python import cv2 cap = cv2.VideoCapture() cap.open(0) # 对于第一摄像头,编号为0;其他摄像头按序增加 while True: ret, frame = cap.read() results = inference(frame, model) ``` 6. **显示结果**:从模型预测结果中提取出感兴趣的物体信息(如坐标、类别),并在原始帧上展示出来。 7. **整合输出**:如果有多个摄像头,可能需要将它们的结果合并,例如通过时间戳或者其他标识区分。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值