关于YOLO模型架构中的strides

  在Ultralytics YOLO模型架构中,m.stride是一个非常关键的属性,用于描述网络在不同尺度(scale)上的空间压缩程度。解释m.stride的原理之前,我们首先要了解深度学习中卷积神经网络(CNN)的基本工作原理。

卷积神经网络(CNN)和Stride

  卷积神经网络通过一系列的卷积层、池化层等对输入数据进行处理。在这个过程中,特征图(Feature Map)的空间尺寸逐渐减小,而深度(即特征的数量或通道数)逐渐增加。这种空间尺寸的缩减是通过卷积层的stride和池化层实现的。其中,stride是卷积过程中滤波器(kernel)移动的步长。如果stride大于1,则特征图的空间维度会缩减,有助于增大感受野并减少计算量。

m.stride 在YOLO中的应用

  在YOLO的架构中,模型通常会有多个输出尺度,这允许模型能够检测在多个尺度上的物体。这意味着同一幅图像将被处理成不同大小的特征图,以便检测不同大小的物体。m.stride属性就是用来表示这些不同尺度下,输入图像相对于输出特征图的缩减比例。
  例如,假设输入图像大小为[3, 640, 640](通道数, 高度, 宽度),而某一特征图的大小为[255, 20, 20](通道数, 高度, 宽度),则该特征图的stride可以计算为640 / 20 = 32。这意味着特征图上的每一个单元格,对应原始图像上32x32大小的区域。YOLO模型中的m.stride数组就记录了所有尺度上的这种缩减比例。

参考yolov8-p2.yaml:

# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLOv8 object detection model with P2-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect

# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024]
  s: [0.33, 0.50, 1024]
  m: [0.67, 0.75, 768]
  l: [1.00, 1.00, 512]
  x: [1.00, 1.25, 512]

# YOLOv8.0 backbone
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2=========80x320x320
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4=========160x160x160
  - [-1, 3, C2f, [128, True]]  #2=========160x160x160
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8=========320x80x80
  - [-1, 6, C2f, [256, True]]  #4=========320x80x80
  - [-1, 1, Conv, [512, 3, 2]] # 5-P4/16=========640x40x40
  - [-1, 6, C2f, [512, True]] #6=========640x40x40

  - [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32=========640x20x20
  - [-1, 3, C2f, [1024, True]] #8=========640x20x20
  - [-1, 1, SPPF, [1024, 5]] # 9=========640x20x20

# YOLOv8.0-p2 head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]] #10 ========= 640x40x40
  - [[-1, 6], 1, Concat, [1]] #11 cat backbone P4========= 640x40x40+ 640x40x40 = 1280x40x40
  - [-1, 3, C2f, [512]] # 12========= 640x40x40

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]] #13=========640x80x80
  - [[-1, 4], 1, Concat, [1]] #14 cat backbone P3=========640x80x80+ 320x80x80 =960x80x80
  - [-1, 3, C2f, [256]] # 15 (P3/8-small)=========320x80x80

  - [-1, 1, nn.Upsample, [None, 2, "nearest"]] #16 =========320x160x160
  - [[-1, 2], 1, Concat, [1]] #17 cat backbone P2=========320x160x160 + 160x160x160 = 480x160x160
  - [-1, 3, C2f, [128]] # 18 (P2/4-xsmall)=========160x160x160

  - [-1, 1, Conv, [128, 3, 2]] #19=========160x80x80
  - [[-1, 15], 1, Concat, [1]] #20cat head P3=========160x80x80 + 320x80x80 = 480x80x80
  - [-1, 3, C2f, [256]] # 21 (P3/8-small)=========320x80x80

  - [-1, 1, Conv, [256, 3, 2]] #22=========320x40x40
  - [[-1, 12], 1, Concat, [1]] #23 cat head P4=========320x40x40 +  640x40x40 = 960x40x40
  - [-1, 3, C2f, [512]] # 24 (P4/16-medium)=========640x40x40

  - [-1, 1, Conv, [512, 3, 2]] #25=========640x20x20
  - [[-1, 9], 1, Concat, [1]] #26 cat head P5=========640x20x20 + 640x20x20 = 1280x20x20
  - [-1, 3, C2f, [1024]] # 27 (P5/32-large)=========640x20x20

  - [[18, 21, 24, 27], 1, Detect, [nc]] # Detect(P2, P3, P4, P5)

从yaml来看,总共有四个输出,分别是P2, P3, P4, P5,我们就这四个输出来看一下。对于P2,如果输入尺寸是640x640,特征图是160x160x160,根据公式来算,stride应该是:

请添加图片描述)

同理,剩下的就分别是16,32,64

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lindsayshuo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值