【YOLO系列】YOLOv10模型结构详解与推理部署实现

点击开始系统化学习YOLOv系列网络

YOLOv10模型

早晨看到一堆推文,说YOLOv10已经发布了,吓我一跳,这个世界变化这么快,
在这里插入图片描述
然后快速的看一下相关的文档,发现YOLOv10 相比YOLOv8有两个最大的改变分别是 添加了PSA层跟CIB层
在这里插入图片描述
在这里插入图片描述
去掉了NMS
在这里插入图片描述

导出与部署

github上YOLOv10的地址如下

https://github.com/THU-MIG/yolov10

下载源码,直接用下面的代码就可以导出ONNX格式模型了,发现导出以后还没来得及把格式搞清楚,输出得居然是动态得ONNX格式表示,但是实际上

输入支持格式为:1x3x640x640
输出格式为1x300x6

输出格式300是指输出得预测框数目,6分别是

x1 y1 x2 y2 score classid

因为YOLOv10模型不需要NMS了,所以就直接输出最终得预测结果,支持默认最大得boxes数目是300, 这个应该是可以改得,我还没仔细研究,不然显然支持得预测框太少,这点跟YOLOv8预测框相比少了很多。模型转换代码如下:

from ultralytics import RTDETR, YOLO10
"""Test exporting the YOLO model to ONNX format."""
f = YOLO10("yolov10s.pt").export(format="onnx", dynamic=True)

单纯从推理上看 YOLOv10的确比YOLOv8简单很多,有点SSD模型得既视感。推理代码实现如下:

import cv2 as cv
import numpy as np
from openvino.runtime import Core


# load model
labels = load_classes()
ie = Core()
for device in ie.available_devices:
    print(device)
model = ie.read_model(model="yolov10n.onnx")
compiled_model = ie.compile_model(model=model, device_name="CPU")
output_layer = compiled_model.output(0)

frame = cv.imread("D:/images/1234.jpg")
image = format_yolov10(frame)

h, w, c = image.shape
x_factor = w / 640.0
y_factor = h / 640.0

# 检测 2/255.0, NCHW = 1x3x640x640
blob = cv.dnn.blobFromImage(image, 1 / 255.0, (640, 640), swapRB=True, crop=False)

# 设置网络输入
cvOut = compiled_model([blob])[output_layer]
# [left,top, right, bottom, score, classId]
print(cvOut.shape)
for row in cvOut[0,:,:]:
    score = float(row[4])
    objIndex = int(row[5])
    if score > 0.5:
        left, top, right, bottom = row[0].item(), row[1].item(), row[2].item(), row[3].item()

        left = int(left * x_factor)
        top = int(top * y_factor)
        right = int(right * x_factor)
        bottom = int(bottom * y_factor)
        # 绘制
        cv.rectangle(frame, (int(left), int(top)), (int(right), int(bottom)), (255, 0, 0), thickness=2)
        cv.putText(frame, "score:%.2f, %s"%(score, labels[objIndex]),
                (int(left) - 10, int(top) - 5), cv.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2, 8);

cv.imshow('YOLOv10 Object Detection', frame)
cv.imwrite("D:/result.png", frame)
cv.waitKey(0)
cv.destroyAllWindows()

运行结果如下:
在这里插入图片描述

总结与看法

个人认为,这个就是一个YOLOv8的魔改版本,但是也是魔改界的天花板,还是不错的。然后下载它的源码之后,你会发现里面很多YOLOv8的包跟代码注释连名字都还没有改过来,特别是推理的演示代码里面还是YOLOv8的,说明是fork YOLOv8的代码基础上修改的,跟论文说明是一致的!

点击开始系统化学习YOLOv系列网络

  • 5
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
引用和中提供的信息可以了解到使用YOLOv8模型进行验证的步骤和命令。首先,使用ultralytics库中的YOLO类来加载模型,通过指定模型的路径来加载官方模型或自定义模型。然后,使用val()方法来验证模型。该方法不需要传递任何参数,因为模型已经保存了其训练数据和参数作为模型属性。对于命令行界面(CLI),可以使用不同的命令来验证不同的模型,如yolo task=segment mode=val model=yolov8n-seg.pt来验证yolov8n-seg模型在COCO128-seg数据集上的准确性。 对于yolov8模型的参数详解,引用中提供了一些命令和参数说明:yolo task=detect mode=train model=yolov8n.yaml用于在训练模式下使用yolov8n.yaml配置文件进行目标检测的训练;classify predict yolov8n-cls.yaml用于使用yolov8n-cls.yaml配置文件进行分类预测;segment val yolov8n-seg.yaml用于在验证模式下使用yolov8n-seg.yaml配置文件进行图像分割验证;export yolov8n.pt format=onnx用于将训练好的yolov8n模型导出为ONNX格式。 总结而言,yolov8模型的参数详解可以根据具体的任务和模式进行调整和配置,通过ultralytics库和相关命令来加载、验证和导出模型。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [YOLOv8详解 【网络结构+代码+实操】](https://blog.csdn.net/zyw2002/article/details/128732494)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

gloomyfish

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值