opencv-python和yolo5(torch)实现实时检测

先下载yolo5项目:

https://github.com/ultralytics/yolov5

用pycharm新建一个项目
勾选Inherit global site-packages 使用base interpreter的所有packages
不勾选 Make available to all projects 因为这个指当在虚拟环境下安装包的时候,copy一份到全局。就是base interpreter中会添加这个项目中的所有包

项目新建后,把yolo5 解压后所有文件和文件夹复制到pycharm项目里面,把requirements.txt打开,这时候先不要用pycharm安装依赖包,先看看有哪些。
其中,matplotlib,numpy,opencv-python,scipy,torch,torchvision,pandas,seaborn这些是机器学习/深度学习中常用的工具包,所有应该安装在全局环境里面也就是base interpreter添加这个包

细节说明yolo5项目有成熟的torch框架实现,到现在并没有成熟的tensorflow框架板,而且torch和tensorflow都有cpu和gpu版本,如果你没有支持cuda的高性能显卡,或者图省事简单,安装cpu版本更适合俺们

先手动在cmd里面安装opencv python版

https://pypi.tuna.tsinghua.edu.cn/simple/opencv-python/

选择匹配你设备的whl文件
细节cp39(指对应你安装的python sdk的版本 比如python39)
cmd窗口下pip install “pathxxxxx/.whl”
稍后安装成功

此时已经安装了opencv,我们来玩一玩,在新建一个python项目,在main下面添加以下代码

import cv2
capture = cv2.VideoCapture(0) #使用电脑的内置像头 1的话应该是usb外置像头
while (True):
        # 获取一帧
        ret, frame = capture.read()
        frame = cv2.flip(frame, 1)   #cv2.flip 图像翻转,因为摄像头本来录制的是与现实相反的
        cv2.imshow('frame',frame)
        # 如果输入q,则退出
        if cv2.waitKey(1) == ord('q'):
            break
capture.release()
cv2.destroyAllWindows()

没有意外的话,你就能看见自己英俊的脸庞。ok小的体验到此结束。

然后开始yolo

https://pypi.tuna.tsinghua.edu.cn/simple/matplotlib
https://pypi.tuna.tsinghua.edu.cn/simple/seaborn

下载他们的whl文件,这个是可视化显示所需要的,但是在我的文章中是用不到的,既然项目文件requirements.txt所要求的,那么我们还是当一个好学生吧。matplotlib是负责可视化的,seaborn是美化matplotlib的样式的

https://pypi.tuna.tsinghua.edu.cn/simple/numpy
https://pypi.tuna.tsinghua.edu.cn/simple/pandas

其实上面这几个安装比较简单,你要是图省事,也可用全部用pycharm的功能安装,不用手动了,因为后面torch,torchvision这两个有细节
细节1是torch cpu和gpu版本
细节2是torch得对应torchvision版本
用pycharm可以确保版本对应,但是你不支持gpu他可能会给你安装上gpu版本的torch,而且国外网络下载看你运气 torch 200mb
剩余的scipy包请自己拼接链接地址下载安装,没啥细节

再打开第一次新建的项目,就是你已经复制了yolo到里面去的那个,然后提示缺什么包,确认就ok,基本剩下的包不会占很大,会用pycharm自动安装上
然后用pycharm run运行detect.py就ok,其他文章中用cmd方式是一样的,默认参数有目标图片,不需要用cmd填写
运行过程中,如果是第一次运行,会下载模型文件,有网就ok
然后你就能看到控制台 打印预测后的文件信息
这样的话yolo就ok了

剩下就是对open cv中的没一帧进行模型推到处理后再显示,我的电脑很垃圾,像放ppt。

import cv2
import numpy as np
import torch
from models.common import DetectMultiBackend
from utils.general import check_img_size,non_max_suppression
from utils.plots import Annotator, colors
from utils.torch_utils import select_device
from utils.augmentations import letterbox #调整图片大小至640

if __name__ == '__main__':
    # Load model
    device = select_device('')
    weights="C:\\Users\\Administrator\\Desktop\\yolov5s.pt"
    dnn = False
    data="C:\\Users\\Administrator\\Desktop\\coco128.yaml"
    model = DetectMultiBackend(weights, device=device, dnn=dnn, data=data)
    stride, names, pt, jit, onnx, engine = model.stride, model.names, model.pt, model.jit, model.onnx, model.engine
    imgsz = check_img_size((640, 640), s=stride)  # check image size

    model.warmup()  # warmup

    capture = cv2.VideoCapture(0)
    height = capture.get(cv2.CAP_PROP_FRAME_HEIGHT)  # 计算视频的高  # 获取视频宽度
    width = capture.get(cv2.CAP_PROP_FRAME_WIDTH)  # 计算视频的宽  # 获取视频高度

 	#https://blog.csdn.net/weixin_41010198/article/details/88535234
    #capture.set(cv2.CAP_PROP_BRIGHTNESS,50)#亮度
    #capture.set(cv2.CAP_PROP_CONTRAST,18)#对比度
    #capture.set(cv2.CAP_PROP_SATURATION,70)# 图像的饱和度(仅适用于相机)
    #capture.set(cv2.CAP_PROP_EXPOSURE,200)
    #如果你感兴趣可以去调调参数


    while (True):
        # 获取一帧
        ret, frame = capture.read()
        #gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)  # 将这帧转换为灰度图
        frame = cv2.flip(frame, 1)   #cv2.flip 图像翻转

        img0=frame
        img = letterbox(frame)[0] #返回的是元组所以[0]
        # Convert
        img = frame.transpose((2, 0, 1))[::-1]  # HWC to CHW, BGR to RGB
        img = np.ascontiguousarray(img) #用tensor的说法 转为张量?

        im = torch.from_numpy(img).to(device)
        #im=im.half()
        im=im.float()  # uint8 to fp16/32 #转为float,除以255可以得小数
        im /= 255  # 0 - 255 to 0.0 - 1.0 #归一化

        if len(im.shape) == 3:
            im = im[None]  # expand for batch dim

		#im已经是预处理后的张量了,这才符合网络输入,而img0表示位图,帧
        pred = model(im, augment=False,visualize=False)#augmented inference  # visualize features增强推理#可视化特征
        # NMS 非极大值抑制
        pred = non_max_suppression(pred)
        det=pred[0]
        annotator = Annotator(frame, line_width=3, example=str(names))
        for *xyxy, conf, cls in iter(det):#一个图片里面可能不止一个目标对象,比如两个人,比如一人一狗,所以用循环
            c=int(cls)
            label =names[c]
            annotator.box_label(xyxy, label, color=colors(c, True))
        im0 = annotator.result()
        cv2.imshow('frame',im0)

        # 如果输入q,则退出
        if cv2.waitKey(1) == ord('q'):
            break

    capture.release()
    cv2.destroyAllWindows()

这上面的代码是根据官方detect.py文件,粘贴复制出来的,感兴趣的朋友可以自己对detect.py运行过程监听print看看,我这个自从图片上标示出来,想获得字符串可以自己去添加一下。
这个用的是yolo给的默认模型,根据场景需求,你可以自己训练,不算难,然后刚开始,我很介意这个是torch版本实现的,因为我只会tensorflow,根本不会torch,但是官方已经给了导出tf模型的py文件,在用自己的训练好后,我们转化一下就ok

对了,我本来是搞web的,最熟悉的还是java,目前最近几年会进一步学习人工智能,然后群号 517103280,这个QQ群,欢迎加入交流

cpu版本运行数据 主要是模型推到没有cuda加速卡的,open cv直接显示不卡
cpu版本运行数据 主要是模型推到没有cuda加速卡的,open cv直接显示不卡
如果想折腾,可以自己调调大小参数
如果想折腾,可以自己调调大小参数

这位大哥的文章不错,可以看下,然后yolo的一些应该得看看
https://blog.csdn.net/weixin_29343153/article/details/113090000?utm_source=app&app_version=4.16.0&code=app_1562916241&uLinkId=usr1mkqgl919blen
在这里插入图片描述

### 回答1: 可以使用OpenCVPython来计算YOLOv5检测的面积。 首先,需要对像进行检测,并获取检测结果,包括检测到的物体的边界框信息。 然后,可以使用OpenCV中的`cv2.boundingRect`函数来计算每个边界框的面积。 代码示例如下: ```python import cv2 # 获取检测结果,这里假设已经获得了检测到的边界框信息 boxes = [(x1, y1, x2, y2), (x1, y1, x2, y2), ...] # 计算面积 for box in boxes: x1, y1, x2, y2 = box area = cv2.boundingRect(box) print("Bounding box area:", area) ``` 在上面的代码中,需要将检测到的边界框信息存储在列表`boxes`中,每个元素都是一个四元组,分别表示边界框的左上角和右下角的坐标。然后,对于每个边界框,调用`cv2.boundingRect`函数计算它的面积。 ### 回答2: 要计算Yolov5检测的面积,需要在OpenCV中进行一些像处理和数学计算。以下是一个使用Python编写的计算Yolov5检测面积的示例代码: ```python import cv2 import numpy as np def calculate_area(img_path, detection): # 加载像 image = cv2.imread(img_path) # 提取像的高度和宽度 img_height, img_width, _ = image.shape # 计算检测框的面积 for label, confidence, bbox in detection: # 解析检测框 x, y, w, h = bbox # 还原检测框相对于原的大小 x = int(x * img_width) y = int(y * img_height) w = int(w * img_width) h = int(h * img_height) # 计算检测框的面积 area = w * h # 在像上绘制检测框和面积信息 cv2.rectangle(image, (x, y), (x + w, y + h), (255, 0, 0), 2) cv2.putText(image, f"{label}: {area}", (x, y - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 0, 255), 2) # 显示像 cv2.imshow("Yolov5 Detection", image) cv2.waitKey(0) cv2.destroyAllWindows() # 示例用法 img_path = "image.jpg" detection = [("person", 0.9, [0.2, 0.3, 0.4, 0.5]), ("car", 0.8, [0.1, 0.1, 0.2, 0.2])] calculate_area(img_path, detection) ``` 需要注意的是,示例代码中的`img_path`为像文件的路径,`detection`是一个包含检测结果的列表,每个元素包含标签名、置信度和边界框信息。改变相应的路径检测结果即可使用该代码计算Yolov5检测的面积,并在像上显示检测框和面积信息。 ### 回答3: 在OpenCV中计算YOLOv5检测的面积,需要先加载YOLOv5的预训练权重文件和配置文件,然后读取待检测像。接下来,使用YOLOv5模型进行物体检测,获取检测到的物体边界框信息。最后,通过计算边界框的面积,可以得到YOLOv5检测到的物体的面积。 下面是使用Python编写的计算YOLOv5检测面积的代码示例: ```python import cv2 from pathlib import Path # 加载YOLOv5预训练权重文件和配置文件 weights_file = 'yolov5s.pt' config_file = 'yolov5s.yaml' model = cv2.dnn_DetectionModel(str(config_file), str(weights_file)) model.setInputSize(640, 640) model.setInputScale(1.0 / 255) # 读取待检测像 image_file = 'image.jpg' image = cv2.imread(image_file) # 使用YOLOv5模型进行物体检测 classes, scores, boxes = model.detect(image, confThreshold=0.5, nmsThreshold=0.4) # 计算检测到的物体的面积 for (classid, score, box) in zip(classes, scores, boxes): x, y, w, h = box area = w * h print('Detected object:', classid, 'Area:', area) # 显示检测结果 for (classid, score, box) in zip(classes, scores, boxes): cv2.rectangle(image, box, color=(0, 255, 0), thickness=2) cv2.putText(image, str(classid), (box[0], box[1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2) cv2.imshow('Detection', image) cv2.waitKey(0) cv2.destroyAllWindows() ``` 以上代码中,首先加载YOLOv5模型并设置输入尺寸和输入缩放比例。然后读取待检测像,使用YOLOv5模型进行物体检测,并得到物体的边界框信息。接着,通过计算边界框的宽度和高度,得到物体的面积,并输出打印检测到的物体类别及其面积。最后,将检测结果展示在原上并显示出来。 请注意,上述代码基于YOLOv5官方提供的Python版本进行编写,需要先安装`opencv-python`库和`torch`库,确保相关依赖已经安装。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值