YOLOv10全网最新创新点改进系列:如何绘制网络结构图,一文读懂!YOLOv10网络结构图!遥遥领先!

YOLOv10全网最新创新点改进系列:如何绘制网络结构图,一文读懂!YOLOv10网络结构图!

所有改进代码均经过实验测试跑通!截止发稿时YOLOv10已改进40+!自己排列组合2-4种后,考虑位置不同后可排列组合上千万种!改进不重样!!专注AI学术,关注B站up主:Ai学术叫叫兽!

购买相关资料后畅享一对一答疑

# YOLOv10全网最新创新点改进系列:如何绘制网络结构图,一文读懂!YOLOv10网络结构图!遥遥领先!


详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

一、 看懂YAML

# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024] 


backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] #  第0层,-1代表将上层的输出作为本层的输入。第0层的输入是640*640*3的图像。Conv代表卷积层,相应的参数:64代表输出通道数,3代表卷积核大小k,2代表stride步长。卷积后输出的特征图尺寸为320*320*64,长宽为初始图片的1/2
  - [-1, 1, Conv, [128, 3, 2]] #第1层  1-P2/4
  - [-1, 3, C2f, [128, True]]#第2层 3代表本层重复3次。128代表输出通道数,True表示Bottleneck有shortcut。输出的特征图尺寸为160*160*128
  - [-1, 1, Conv, [256, 3, 2]] # 第3层  3-P3/8
  - [-1, 6, C2f, [256, True]]# 第4层
  - [-1, 1, SCDown, [512, 3, 2]] # 第5层,进行SCDown操作(512代表输出通道数,3代表卷积核大小k,2代表stride步长)
  - [-1, 6, C2f, [512, True]]# 第6层
  - [-1, 1, SCDown, [1024, 3, 2]] #第7层 7-P5/32
  - [-1, 3, C2f, [1024, True]]# 第8层
  - [-1, 1, SPPF, [1024, 5]] # 第9层这是快速空间金字塔池化层(SPPF)。1024代表输出通道数,5代表池化核大小
  - [-1, 1, PSA, [1024]] # 第10层 注意力模块


head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]# 第11层 是上采样层。-1代表将上层的输出作为本层的输入。None代表上采样的size=None(输出尺寸)不指定。2代表scale_factor=2,表示输出的尺寸是输入尺寸的2倍。mode=nearest代表使用的上采样算法为最近邻插值算法。
  - [[-1, 6], 1, Concat, [1]] #第12层 cat backbone P4# concat层,[-1, 6]代表将上层和第6层的输出作为本层的输入。[1]代表concat拼接的维度是1。
  - [-1, 3, C2f, [512]] # 第13层

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]] #第14层
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3 第15层
  - [-1, 3, C2f, [256]] # 第16层 (P3/8-small)

  - [-1, 1, Conv, [256, 3, 2]]# 第17层
  - [[-1, 13], 1, Concat, [1]] # 第18层 cat head P4
  - [-1, 3, C2f, [512]] # 第19层  (P4/16-medium)

  - [-1, 1, SCDown, [512, 3, 2]]# 第20层
  - [[-1, 10], 1, Concat, [1]] # 第21层cat head P5
  - [-1, 3, C2fCIB, [1024, True, True]] # 第22层 (P5/32-large)

  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽er 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

二、 看懂就画,不懂就问

在这里插入图片描述

注意!!!!

此文仅是授课文案,需要配合B站视频,一文必学会网络结构图的画法!
另外,遥遥领先大家庭的小伙伴们,绘图过程中遇到的困惑可QQ私信我,空闲时间可以免费帮忙指导,尽可能一次性说清且将相关图一并发我!!!

详细的改进教程以及源码,戳这!戳这!!戳这!!!B站:AI学术叫叫兽 源码在相簿的链接中,动态中也有链接,感谢支持!祝科研遥遥领先!

  • 28
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
YOLOv10(You Only Look Once version 10)是YOLO系列最新版本,这是一种实时目标检测算法。它基于全卷积神经网络架构,主要用于单一像或视频流中同时检测多个物体并给出其类别和位置。 YOLOv10网络结构主要包括以下几个关键部分: 1. **输入层**:接受原始像作为输入,通常有固定的尺寸(如416x416像素),通过一系列的下采样操作将其缩放。 2. ** backbone (特征提取器)**:这部分通常是深度学习模型的基础,例如 Darknet53 或 ResNet等,用于提取像的高级特征表示。 3. **neck(特征融合)**:将来自backbone的不同层次的特征进行上下采样和合并,形成更综合的特征。 4. **spatial pyramid pooling (SPP) or FPN (Feature Pyramid Network)**:有助于捕捉不同尺度的目标信息,增强对小目标的检测能力。 5. **Detection Heads**:包含多个检测头,每个头负责预测指定大小区域内的边界框、类别概率以及置信度分数。这些头部可能会有不同的设计,比如在YOLOv10中有多个尺度的检测头以处理不同大小的对象。 6. **Output Layer**:将检测头的结果整合起来,生成最终的预测结果,包括每个物体的边界框坐标、类别标签和置信度。 YOLOv10相较于早期版本进行了优化,提升了精度和速度,并引入了更多先进的技术,如跨层级融合、更大的模型规模以及训练策略调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值