YOLOV5/V7 实现图片、视频、摄像头 标签数量统计

本文主要是在推理detect阶段,预测的图片或视频中没有标签的数量统计

在 detect.py中的第171行(大家看自己位置,我这里是大概位置)加入这行代码

cv2.putText(im0, f"{n} " + 'person', (5, 50), cv2.FONT_HERSHEY_SIMPLEX, 1.2, (0, 0, 255), 2)

修改后的 11行和28行29行

            if len(det):
                # Rescale boxes from img_size to im0 size
                det[:, :4] = scale_coords(im.shape[2:], det[:, :4], im0.shape).round()

                # Print results
                for c in det[:, -1].unique():
                    n = (det[:, -1] == c).sum()  # detections per class
                    print(n)
                    s += f"{n} {names[int(c)]}{'s' * (n > 1)}, "  # add to string

                    cv2.putText(im0, f"{n} " +
  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv5 6.1版本的ONNX文件是一种用于表示YOLOv5模型结构和权重的文件格式。ONNX(Open Neural Network Exchange)是一种开放的深度学习模型交换格式,它允许不同的深度学习框架之间共享和转换模型。 YOLOv5是一个快速、精确的目标检测算法,可以检测出图像或视频中的多个目标,并为每个目标提供边界框和类别预测。6.1版本是YOLOv5的一个更新版本,可能包含了一些性能优化和改进。 ONNX文件中包含了YOLOv5 6.1版本模型的网络结构和权重信息。网络结构定义了模型的层次结构、连接方式和参数设置等。权重信息则表示模型已经经过训练,并包含了模型在训练数据上学到的知识。 使用YOLOv5 6.1版本的ONNX文件可以实现以下功能: 1. 加载模型:通过读取ONNX文件,可以将YOLOv5 6.1版本的模型加载到深度学习框架中,以便进行后续的操作。 2. 推理预测:将输入图像或视频传入加载的模型,并获得模型对检测目标的预测结果。YOLOv5 6.1版本的模型在目标检测方面具有较高的精度和速度。 3. 目标分类:对于检测到的目标,可以使用模型中的类别预测信息,将其分类为特定的类别,如人、车、狗等。 4. 边界框定位:利用模型中的边界框信息,可以准确地确定目标在图像中的位置,从而进行更精确的识别和定位。 总而言之,YOLOv5 6.1版本的ONNX文件是实现目标检测的关键文件,可以通过加载模型、进行推理预测、目标分类和边界框定位等功能。它为使用YOLOv5提供了一种方便且高效的方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值