Backbone :Focus + BottleneckCSP+SPP
Focus
CSP/C3
SPP
- 一个小问题:深度学习模型如何处理大小可变的输入?
空间金字塔池化层(SPP Layer),其优势在于不用固定图像输入的尺寸即可产生相同大小的输出特征
,同时融合了多尺度池化信息。 -
- 不管输入尺寸是怎样,SPP 可以产生固定大小的输出
-
- 使用多个窗口(pooling window)
-
- SPP 可以使用同一图像不同尺寸(scale)作为输入, 得到同样长度的池化特征。
从SPP改进为SPPF后,模型的计算量变小了很多
class SPPF(nn.Module):
# Spatial Pyramid Pooling - Fast (SPPF) layer for YOLOv5 by Glenn Jocher
def __init__(self, c1, c2, k=5): # equivalent to SPP(k=(5, 9, 13))
super().__init__()
c_ = c1 // 2 # hidden channels
self.cv1 = Conv(c1, c_, 1, 1)
self.cv2 = Conv(c_ * 4, c2, 1, 1)
self.m = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2)
def forward(self, x):
x = self.cv1(x)
with warnings.catch_warnings():
warnings.simplefilter('ignore') # suppress torch 1.9.0 max_pool2d() warning
y1 = self.m(x)
y2 = self.m(y1)
return self.cv2(torch.cat((x, y1, y2, self.m(y2)), 1))
PANet PANet是一个加强版的FPN
和Yolov3的FPN层不同,Yolov4在FPN层的后面还添加了一个自底向上的特征金字塔。这样结合操作,FPN层自顶向下传达强语义特征,而特征金字塔则自底向上传达强定位特征,两两联手,从不同的主干层对不同的检测层进行参数聚合,这样的操作确实很皮。
-
FPN:最顶层的特征会经过x2的上采样插值后和底层feature map相加
-
目标检测的
FPN和Unet
有差别吗? FPN的“放大”部分是直接插值放大的,没有deconvolution的filters学习参数;U-Net“放大”部分就是Decoder,需要deconvolution的filters学习参数的。FPN对每一个融合的层都做detection;U-Net 只在最后一层做segmentation的pixel预测
HEAD
OUT
- 输出80 * 80*255(40 * 40*255,20 * 20*255)
边界框匹配与损失
1 将归一化中心点位置、宽高映射到640。
2 计算中心点在80 * 80的位置,
3 分别计算3个anchor与映射后gt宽高的宽和高的比,宽高比满足条件时才计算矩形框损失(将3*80*80对应值设置为true,false不加入到loss)
4 矩形框损失计算 L1、L2、smooth L1损失函数
IOU损失
这种计算方法的前提假设是中心点x坐标、中心点y坐标、宽、高这四个值是相互独立的,实际上它们具有相关性,所以该计算方法存在问题。
置信度损失计算原理
yolo之前版本直接对mask矩阵为true的地方赋值1
,mask矩阵为false的地方赋值0。yolov5版本mask为true的位置不直接赋1,而是计算对应预测框与目标框的CIOU,需要对CIOU做一个截断处理:当CIOU小于0时直接取0值作为标签。
9个ancher的使用:
宽、高最小的anchor0、anchor1、anchor2分配给80 * 80网格的每个格子;
宽、高次小的anchor3、anchor4、anchor5分配给40 * 40网格的每个格子;
宽、高最大的anchor6、anchor7、anchor8分配给20 * 20网格的每个格子。
yaml
# parameters
nc: 3 # number of classes
depth_multiple: 0.67 # model depth multiple 控制模型大小:将乘上backbone的umbers再取整
width_multiple: 0.75 # layer channel multiple 控制模型大小:控制输出
# anchors
anchors:
- [10,13, 16,30, 33,23] # P3/8 在最大的特征图上的锚框 一般希望在大的特征图上去检测小目标,因为大特征图才含有更多小目标信息 https://blog.csdn.net/qq_27278957/article/details/120036450
- [30,61, 62,45, 59,119] # P4/16 在中间的特征图上的锚框
- [116,90, 156,198, 373,326] # P5/32 在最小的特征图上的锚框
# YOLOv5 backbone
backbone:
# [from, number, module, args]
[[-1, 1, Focus, [64, 3]], # 0-P1/2 from=-1 表示当前层的输入由上一阶段获取 [64, 3] 中64表示输出channels(需要*width_multiple)
[-1, 1, Conv, [128, 3, 2]], # 1-P2/4 [128, 3, 2] 中 3, 2对应 卷积大小 padding
[-1, 3, BottleneckCSP, [128]], # 0-P1 第一行 Focus(下采样)的结构 https://blog.csdn.net/weixin_55073640/article/details/122539858, 详见commom.py
[-1, 1, Conv, [256, 3, 2]], # 3-P3/8
[-1, 9, BottleneckCSP, [256]],
[-1, 1, Conv, [512, 3, 2]], # 5-P4/16
[-1, 9, BottleneckCSP, [512]],
[-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
[-1, 1, SPP, [1024, [5, 9, 13]]],
[-1, 3, BottleneckCSP, [1024, False]], # 9
]
# YOLOv5 head
head:
[[-1, 1, Conv, [512, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 6], 1, Concat, [1]], # cat backbone P4
[-1, 3, BottleneckCSP, [512, False]], # 13
[-1, 1, Conv, [256, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 4], 1, Concat, [1]], # cat backbone P3
[-1, 3, BottleneckCSP, [256, False]], # 17
[-1, 1, Conv, [256, 3, 2]],
[[-1, 14], 1, Concat, [1]], # cat head P4
[-1, 3, BottleneckCSP, [512, False]], # 20
[-1, 1, Conv, [512, 3, 2]],
[[-1, 10], 1, Concat, [1]], # cat head P5
[-1, 3, BottleneckCSP, [1024, False]], # 23
# 以上的部分可称为booleneck
[[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5) 17, 20, 23 表示层的标号
]
25200 = ( 80 ∗ 80 + 40 ∗ 40 + 20 ∗ 20 ) ∗ 3 25200=(80*80+40*40+20*20)*3 25200=(80∗80+40∗40+20∗20)∗3
iou & nms
NMS(Non-Maximum Suppression)和IOU(Intersection over Union)是目标检测中常用的两种技术,它们被用于筛选和过滤检测框和目标,以较高的准确率和较少的重叠检测框来提高检测性能。
IOU是衡量两个边界框的重合度的指标。两个边界框的IOU计算方法如下:
I O U = A r e a ( A ∩ B ) A r e a ( A ∪ B ) IOU = \frac{Area(A \cap B)}{Area(A \cup B)} IOU=Area(A∪B)Area(A∩B)
其中, A A A 和 B B B 表示两个边界框的区域, A r e a Area Area 表示计算区域的面积。
NMS是一种常用的后处理技术,用于消除多余的重叠检测框,并保留最佳检测结果。其基本原理是:
-
对检测框按照分类得分进行降序排列。
-
选择得分最高的检测框,并将其存储为最终输出结果。
-
对于其余的检测框,计算其与已选择的检测框的IOU值,如果IOU大于预设的阈值,则将该检测框从列表中删除,否则将其保留。
-
重复执行步骤2-3,直到所有检测框被处理完毕。
NMS可以减少同一目标的多次检测结果,提高模型的精度和可靠性。
CG
-
yolov5 的 detect 层 与 anchor 机制 - - https://blog.csdn.net/weixin_44956310/article/details/121745474
-
https://zhuanlan.zhihu.com/p/563598234
-
https://zhuanlan.zhihu.com/p/540786844 DINO端到端可学习的目标监测,没有NMS
-
https://zhuanlan.zhihu.com/p/367069340从yolov1来理解yolov5
-
https://blog.csdn.net/weixin_43427721/article/details/123673383
"Anchor-free"的方法
“Anchor-free” 是一个在计算机视觉领域中常用的术语,它用于描述一类对象检测和目标跟踪方法,这些方法不依赖于锚框(anchor boxes)或先验框(prior boxes)。传统的对象检测方法,如Faster R-CNN和YOLO,通常使用锚框来提供多个可能包含对象的区域,然后通过网络来预测这些区域是否包含对象以及对象的边界框位置。然而,锚框的选择和设计通常需要经验和调整,并且可能不适用于各种场景和尺度的对象。
在 anchor-free 方法中,算法不再依赖于锚框,而是通过其他方式来预测对象的位置和属性。这些方法可能使用不同的网络架构和损失函数,以更直接地从输入图像中提取对象信息。Anchor-free 方法的优点包括更简单的实现、更少的超参数调整以及更好的适应性,因为它们不受锚框设计的限制。
一些流行的 anchor-free 对象检测方法包括CenterNet、CornerNet、FCOS(Fully Convolutional One-Stage Object Detection)和DETR(Data-efficient Image Transformer),它们在不同的场景下取得了良好的性能。这些方法的发展推动了对象检测领域的进步,减轻了锚框带来的一些问题。总之,anchor-free 方法是计算机视觉领域的一个重要研究方向,旨在改进对象检测和目标跟踪的精度和效率。