yolov5 网络结构(暂记)

Backbone :Focus + BottleneckCSP+SPP

Focus

在这里插入图片描述

CSP/C3

 https://www.cnblogs.com/dan-baishucaizi/p/14267602.html

SPP

  • 一个小问题:深度学习模型如何处理大小可变的输入?
    空间金字塔池化层(SPP Layer),其优势在于不用固定图像输入的尺寸即可产生相同大小的输出特征,同时融合了多尺度池化信息。
    1. 不管输入尺寸是怎样,SPP 可以产生固定大小的输出
    1. 使用多个窗口(pooling window)
    1. SPP 可以使用同一图像不同尺寸(scale)作为输入, 得到同样长度的池化特征。

从SPP改进为SPPF后,模型的计算量变小了很多

class SPPF(nn.Module):
    # Spatial Pyramid Pooling - Fast (SPPF) layer for YOLOv5 by Glenn Jocher
    def __init__(self, c1, c2, k=5):  # equivalent to SPP(k=(5, 9, 13))
        super().__init__()
        c_ = c1 // 2  # hidden channels
        self.cv1 = Conv(c1, c_, 1, 1)
        self.cv2 = Conv(c_ * 4, c2, 1, 1)
        self.m = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2)

    def forward(self, x):
        x = self.cv1(x)
        with warnings.catch_warnings():
            warnings.simplefilter('ignore')  # suppress torch 1.9.0 max_pool2d() warning
            y1 = self.m(x)
            y2 = self.m(y1)
            return self.cv2(torch.cat((x, y1, y2, self.m(y2)), 1))

PANet PANet是一个加强版的FPN

        和Yolov3的FPN层不同,Yolov4在FPN层的后面还添加了一个自底向上的特征金字塔。这样结合操作,FPN层自顶向下传达强语义特征,而特征金字塔则自底向上传达强定位特征,两两联手,从不同的主干层对不同的检测层进行参数聚合,这样的操作确实很皮。

在这里插入图片描述

HEAD

OUT

  • 输出80 * 80*255(40 * 40*255,20 * 20*255)

边界框匹配与损失

1 将归一化中心点位置、宽高映射到640。
2 计算中心点在80 * 80的位置,
3 分别计算3个anchor与映射后gt宽高的宽和高的比,宽高比满足条件时才计算矩形框损失(将3*80*80对应值设置为true,false不加入到loss)
4 矩形框损失计算 L1、L2、smooth L1损失函数

IOU损失

这种计算方法的前提假设是中心点x坐标、中心点y坐标、宽、高这四个值是相互独立的,实际上它们具有相关性,所以该计算方法存在问题。

置信度损失计算原理

  • yolo之前版本直接对mask矩阵为true的地方赋值1,mask矩阵为false的地方赋值0。yolov5版本mask为true的位置不直接赋1,而是计算对应预测框与目标框的CIOU,需要对CIOU做一个截断处理:当CIOU小于0时直接取0值作为标签。

9个ancher的使用:

宽、高最小的anchor0、anchor1、anchor2分配给80 * 80网格的每个格子;
宽、高次小的anchor3、anchor4、anchor5分配给40 * 40网格的每个格子;
宽、高最大的anchor6、anchor7、anchor8分配给20 * 20网格的每个格子。

yaml

# parameters
nc: 3  # number of classes
depth_multiple: 0.67  # model depth multiple      控制模型大小:将乘上backbone的umbers再取整
width_multiple: 0.75  # layer channel multiple    控制模型大小:控制输出

# anchors
anchors:
  - [10,13, 16,30, 33,23]  # P3/8       在最大的特征图上的锚框  一般希望在大的特征图上去检测小目标,因为大特征图才含有更多小目标信息  https://blog.csdn.net/qq_27278957/article/details/120036450
  - [30,61, 62,45, 59,119]  # P4/16     在中间的特征图上的锚框
  - [116,90, 156,198, 373,326]  # P5/32 在最小的特征图上的锚框

# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2     from=-1 表示当前层的输入由上一阶段获取  [64, 3] 中64表示输出channels(需要*width_multiple)
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4  [128, 3, 2]  中 3, 2对应 卷积大小 padding
   [-1, 3, BottleneckCSP, [128]],                         # 0-P1 第一行 Focus(下采样)的结构 https://blog.csdn.net/weixin_55073640/article/details/122539858, 详见commom.py
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, BottleneckCSP, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, BottleneckCSP, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, BottleneckCSP, [1024, False]],  # 9
  ]

# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, BottleneckCSP, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, BottleneckCSP, [256, False]],  # 17

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, BottleneckCSP, [512, False]],  # 20

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, BottleneckCSP, [1024, False]],  # 23
                                             # 以上的部分可称为booleneck
   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)  17, 20, 23 表示层的标号
  ]

在这里插入图片描述

25200 = ( 80 ∗ 80 + 40 ∗ 40 + 20 ∗ 20 ) ∗ 3 25200=(80*80+40*40+20*20)*3 25200=(8080+4040+2020)3

iou & nms

NMS(Non-Maximum Suppression)和IOU(Intersection over Union)是目标检测中常用的两种技术,它们被用于筛选和过滤检测框和目标,以较高的准确率和较少的重叠检测框来提高检测性能。

IOU是衡量两个边界框的重合度的指标。两个边界框的IOU计算方法如下:

I O U = A r e a ( A ∩ B ) A r e a ( A ∪ B ) IOU = \frac{Area(A \cap B)}{Area(A \cup B)} IOU=Area(AB)Area(AB)

其中, A A A B B B 表示两个边界框的区域, A r e a Area Area 表示计算区域的面积。

NMS是一种常用的后处理技术,用于消除多余的重叠检测框,并保留最佳检测结果。其基本原理是:

  1. 对检测框按照分类得分进行降序排列。

  2. 选择得分最高的检测框,并将其存储为最终输出结果。

  3. 对于其余的检测框,计算其与已选择的检测框的IOU值,如果IOU大于预设的阈值,则将该检测框从列表中删除,否则将其保留。

  4. 重复执行步骤2-3,直到所有检测框被处理完毕。

NMS可以减少同一目标的多次检测结果,提高模型的精度和可靠性。

CG

"Anchor-free"的方法

“Anchor-free” 是一个在计算机视觉领域中常用的术语,它用于描述一类对象检测和目标跟踪方法,这些方法不依赖于锚框(anchor boxes)或先验框(prior boxes)。传统的对象检测方法,如Faster R-CNN和YOLO,通常使用锚框来提供多个可能包含对象的区域,然后通过网络来预测这些区域是否包含对象以及对象的边界框位置。然而,锚框的选择和设计通常需要经验和调整,并且可能不适用于各种场景和尺度的对象。

在 anchor-free 方法中,算法不再依赖于锚框,而是通过其他方式来预测对象的位置和属性。这些方法可能使用不同的网络架构和损失函数,以更直接地从输入图像中提取对象信息。Anchor-free 方法的优点包括更简单的实现、更少的超参数调整以及更好的适应性,因为它们不受锚框设计的限制。

一些流行的 anchor-free 对象检测方法包括CenterNet、CornerNet、FCOS(Fully Convolutional One-Stage Object Detection)和DETR(Data-efficient Image Transformer),它们在不同的场景下取得了良好的性能。这些方法的发展推动了对象检测领域的进步,减轻了锚框带来的一些问题。总之,anchor-free 方法是计算机视觉领域的一个重要研究方向,旨在改进对象检测和目标跟踪的精度和效率。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值