yolov5-loss源码理解

https://blog.csdn.net/xiaoleige0713/article/details/114261794

https://blog.csdn.net/chocv/article/details/117398749

class ComputeLoss:
    # Compute losses
    def __init__(self, model, autobalance=False):
        super(ComputeLoss, self).__init__()
        # 获取模型在cpu还是gpu上运行的.之后生成的临时变量也会在相应的设备上运行
        device = next(model.parameters()).device  # get model device
        h = model.hyp  # hyperparameters

        # Define criteria
        # 定义cls loss和 obj loss,对象实例化
        BCEcls = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([h['cls_pw']], device=device))
        BCEobj = nn.BCEWithLogitsLoss(pos_weight=torch.tensor([h['obj_pw']], device=device))

        # Class label smoothing https://arxiv.org/pdf/1902.04103.pdf eqn 3
        self.cp, self.cn = smooth_BCE(eps=h.get('label_smoothing', 0.0))  # positive, negative BCE targets

        # Focal loss
        g = h['fl_gamma']  # focal loss gamma
        if g > 0:
            BCEcls, BCEobj = FocalLoss(BCEcls, g), FocalLoss(BCEobj, g)
        # 获取模型的detect层
        det = model.module.model[-1] if is_parallel(model) else model.model[-1]  # Detect() module
        # 用来实现obj,box,cls loss在每一层之间权重的平衡
        self.balance = {3: [4.0, 1.0, 0.4]}.get(det.nl, [4.0, 1.0, 0.25, 0.06, .02])  # P3-P7 的特征点的数量比值为P3 : P4 : P5 = 4:1:0.25
        # 获取各个特征层的stride相关参数
        self.ssi = list(det.stride).index(16) if autobalance else 0  # stride 16 index
        # 将各个loss加入到类的公共变量中
        self.BCEcls, self.BCEobj, self.gr, self.hyp, self.autobalance = BCEcls, BCEobj, model.gr, h, autobalance
        # 参数获取
        for k in 'na', 'nc', 'nl', 'anchors':
            setattr(self, k, getattr(det, k))

    def __call__(self, p, targets):  # predictions, targets, model
        # loss计算
        # p为模型的最终输出 p的最后一维cx,cy,w,h,conf + number of class
        # targets为gt框的信息
        device = targets.device
        # 初始化loss
        lcls, lbox, lobj = torch.zeros(1, device=device), torch.zeros(1, device=device), torch.zeros(1, device=device)

        # 建立targets目标,获取扩充后的正样本
        # 各个参数形状
        # tcls [[num]] 存放了gt框所对应的网格的cls
        # tbox [[x_offset,y_offset,w,h]] 存放了gt框所对应的网格的box,注意此处的x和y是相对于网格的偏移量offset,相对于哪个网格的坐标偏移?相对于indices [[image, anchor, grid indices_y, grid indices_x]]中grid indices
        # indices [[image, anchor, grid indices]] 存放了gt对应的gird的信息,len=3,对应3层输出,每一层包括:image对应batchsize的哪张图片,anchor,对应哪个尺度的anchor,以及所在的网格
        # anch [[num,2]]#anchor信息

        tcls, tbox, indices, anchors = self.build_targets(p, targets)  # targets

        # Losses  3个输出层,一层一层来处理
        for i, pi in enumerate(p):  # layer index, layer predictions
            #获取扩充正样本的targets的图片号,anchor序号,网格的位置
            b, a, gj, gi = indices[i]  # image, anchor, gridy, gridx
            # obj pi.shape=torch.size([bs,na,featuresize_h,featuresize_w,7])
            # pi[..., 0]获取最后一维的第一维,最后一维表示的是每一个目标的7个标签,所以这里的维数表示的即是总数即是当前输出层的targets的总数
            # tobj.shape=torch.size([bs,na,featuresize_h,featuresize_w]),注意这里tobj的size不只是正样本的shape,而是所有网格的所有anchor对应的shape,即除了正样本还包括built根据标签过滤掉的负样本,以及标签之外背景处的anchor
            tobj = torch.zeros_like(pi[..., 0], device=device)  #target
            n = b.shape[0]  # number of targets 正样本总数
            if n:
                # 对应targets的预测值,pi是每一层的预测tensor
                # pi.shape = (bs, na, feature_w, feature_h, 4+1+class_num)
                # gj,gi是中心点所在feature map位置,是采用targets中心点所在位置的anchor来回归。
                # 获取和正样本targets相同图片名,相同anchor, 相同网格位置的预测框的标签信息
                # ps.shape = (nt, 4+1+class_num) cx,cy,w,h,conf + number of class
                ps = pi[b, a, gj, gi]  # prediction subset corresponding to targets

                # Regression 目标框回归
                # 参见https://blog.csdn.net/weixin_38346042/article/details/119759683
                # 参见https://blog.csdn.net/weixin_38346042/article/details/119759683
                # 参见我的理解:因为在build_targets中,作者相当于扩充了标签框所在网格的上下左右4个网格,左上网格的中心点偏移了-0.5,右下网格偏移了0.5,所以在中心坐标回归到的时候限制了回归的范围到偏移的网格范围内。
                # yolov4中sigmoid(tx)+cx的范围是cx-1,cx+1,当tx=0时,cx+0.5,认为中心点偏移的范围在相邻两个网格内
                # 当前方法范围是1.5+cx, cx-0.5, 当tx=0时,cx=0.5+cx,认为中心点坐标的偏移的最大范围就是扩充正样本时的范围,左上角网格-0.5,右下角网格+0.5,所以总的范围就是-0.5 ~ 1.5
                pxy = ps[:, :2].sigmoid() * 2. - 0.5

                #w,h 回归其没有采用exp操作,而是直接乘上anchors[i]。
                #yolov4中求回归框的长和高的时候,直接对tw做指数操作保证缩放的系数大于0,但是宽度和高度的最大值完全不受限制,这种指数的运算很危险,因为它可能导致失控的梯度、不稳定、NaN损失并最终完全失去训练。
                # 所以yolov5对w,h 回归其没有采用exp操作,而是用sigmoid来限制了缩放系数的最大值。因为作者在YOLO5有一个超参数为anchor_t,就是4。
                # 该超参数的使用方法是,在训练时,如果真实框与锚框尺寸的比值大于4,限于预测框回归公式上界,该锚框是没有办法与该真实框重合的,所以训练时会把比值大于4的锚框删除掉。
                # 所以作者认为回归框和anchor的最大比值是4,所以将缩放系数的最大值设为4=2**2。anchors[i]就是上面参考文章的pw,ph。
                pwh = (ps[:, 2:4].sigmoid() * 2) ** 2 * anchors[i]
                #找到和targets中相同图片相同anchor,相同网格的预测框,回归后的集合pbox。所以和正样本不在同一个网格的预测框并不用回归坐标
                pbox = torch.cat((pxy, pwh), 1)  # predicted box
                # 计算ciou
                iou = bbox_iou(pbox.T, tbox[i], x1y1x2y2=False, CIoU=True)  # iou(prediction, target)
                # 计算box的ciouloss
                lbox += (1.0 - iou).mean()  # iou loss

                # Objectness
                # 获取target所对应的obj,网格中存在gt目标的会被标记为iou与gt的交并比  gr定义在train.py  model.gr = 1.0  # iou loss ratio (obj_loss = 1.0 or iou)
                # 神经网络的训练有时候可能希望保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者只训练部分分支网络,并不让其梯度对主网络的梯度造成影响,
                # torch.tensor.detach()和torch.tensor.detach_()函数来切断一些分支的反向传播
                # torch.clamp(input, min, max, out=None) 限幅。将input的值限制在[min, max]之间,并返回结果
                # torch.tensor.type该方法的功能是:当不指定dtype时,返回类型.当指定dtype时,返回类型转换后的数据,如果类型已经符合要求,那么不做额外的复制,返回原对象.
                # iou.detach().clamp(0)将iou中所有的小于0的之置0,认为小于0的CIOU是负样本
                # 给正样本的tobj赋初值,初值里用到了ciou取代1,代表该点对应置信度,负样本,包括背景的置信度为0
                # 引入了大量正样本anchor,但是不同anchor和gt bbox匹配度是不一样,预测框和gt bbox 的匹配度也不一样,如果权重设置一样肯定不是最优的,故作者将预测框和bbox的giou作为权重乘到conf分支,用于表征预测质量。
                # 一般检测网络的分类头,在计算loss阶段,标签往往是非0即1的状态,即是否为当前类别。
                # yolo v5 则是将anchor与目标匹配时的giou(ciou)作为该位置样本的标签值。giou值在0-1之间,label值的缩小导致了最后预测结果值偏小。
                # 通过model.gr可以修改giou值所占权重,默认是1.0,即用ciou值完全作为标签值,而不是非0即1。ciou的最大值为1.
                tobj[b, a, gj, gi] = (1.0 - self.gr) + self.gr * iou.detach().clamp(0).type(tobj.dtype)  # iou ratio

                # Classification
                if self.nc > 1:  # cls loss (only if multiple classes)
                    # t.shape = torch.size(nt,nc) t为nt*nc的0
                    t = torch.full_like(ps[:, 5:], self.cn, device=device)  # targets
                    # 在nt*nc中,第1维数据取所有,即range(n),n第i层输出的正样本的数据,第2维数据取第i层输出数据的标签tcls[i]中的类为1,即中,其余为0
                    # 每一个target对应nc类,所以t的第2个维度是nc, 这里就是将第n个target对应的类别置为cp=1,其余为0
                    # 加入第一个数据的类别是2,共有4类,则t[0]=[0,0,1,0]
                    t[range(n), tcls[i]] = self.cp
                    # 预测值和真值做二进制交叉熵,但是只计算了带有GT的预测值,不带预测值的不计算,
                    # 计算时每一类认为类别是1,其余类别是0,不带背景计算,参与计算的是所有的类
                    # bceloss中最终返回的是平均每张图片的每个类别的平均损失
                    lcls += self.BCEcls(ps[:, 5:], t)  # BCE

                # Append targets to text file
                # with open('targets.txt', 'a') as file:
                #     [file.write('%11.5g ' * 4 % tuple(x) + '\n') for x in torch.cat((txy[i], twh[i]), 1)]
            # 将整个数据中给每个cell的每个anchor是否对应目标都用于计算loss,即不仅考虑了正样本,还考虑了背景
            # 由以上可知lbos,lcls,都没有考虑背景,只有lobj考虑了背景
            obji = self.BCEobj(pi[..., 4], tobj)
            # self.balance[i]对每一层输出的lobj都加了权重,
            # 3个预测分支上的分类损失、坐标损失直接相加,得到总的分类损失和坐标损失,
            # 而3个预测分支上的目标置信度损失需要进行加权再相加,得到总的目标置信度损失,权值分别为[4.0, 1.0, 0.4],其中4.0是用在大特征图(预测小目标)上,
            # 所以,这里的加权,我认为是旨在提高小目标的检测精度。

            lobj += obji * self.balance[i]  # obj loss
            if self.autobalance:
                self.balance[i] = self.balance[i] * 0.9999 + 0.0001 / obji.detach().item()

        if self.autobalance:
            self.balance = [x / self.balance[self.ssi] for x in self.balance]
        # 对lbox,lobj,lcls增加权重
        lbox *= self.hyp['box']
        lobj *= self.hyp['obj']
        lcls *= self.hyp['cls']
        bs = tobj.shape[0]  # batch size
        
        #最后将分类损失、坐标损失、置信度损失直接相加,得到一个总损失(一个batch中每张图像的平均总损失),再乘以batch的大小,得到用于更新梯度的损失。
        loss = lbox + lobj + lcls
        return loss * bs, torch.cat((lbox, lobj, lcls, loss)).detach()
        
    def build_targets(self, p, targets):
        # Build targets for compute_loss(), input targets(image,class,x,y,w,h);targets就是标注的gt框
        na, nt = self.na, targets.shape[0]  # number of anchors(each layer), targets(每个batch中的标签个数)
        tcls, tbox, indices, anch = [], [], [], []  #初始化每个batch box的信息 tcls表示类别,tbox表示标记的box和生成的box的坐标(x,y,w,h),indices表示图像索引,anch表示选取的anchor的索引
        gain = torch.ones(7, device=targets.device)  # normalized to gridspace gain 将targets
        #torch.arange(start, end)创建从start到end的int64的tensor。
        #torch.view在PyTorch中view函数作用为重构张量的维度,相当于numpy中的resize()的功能,此处将张量转换为na行1列的tensor >> tensor([[0.],[1.],[2.]])
        #repeat()函数可以对张量进行重复扩充,当参数只有两个时:(列的重复倍数,行的重复倍数)。1表示不重复,所以这里列不重复,行重复nt次
        #此时得到的ai.shape = [3, nt]

        ai = torch.arange(na, device=targets.device).float().view(na, 1).repeat(1, nt)  # same as .repeat_interleave(nt)

        #原本targets.shape=[nt,6],[image,class,x,y,w,h],repeat根据每一层的anchor数量将targets增加一维,shape[na=3,nt,6]
        # ai[:, :, None] 2维变3维torch.Size([3, nt, 1])
        #torch.cat两个3维的tensort在第2维上concat,targets的torch.Size([3, nt, 7])
        #第一维增加layer的索引,并且将原本targets[image,class,x,y,w,h]在最后上增加anchor的索引[image,class,x,y,w,h,anchor indices],也就说把每个gt框分配给了每一层输出的每一个anchor

        targets = torch.cat((targets.repeat(na, 1, 1), ai[:, :, None]), 2)  # append anchor indices
        g = 0.5  # bias 什么用? 为扩充标记的box添加偏置,具体扩充规则为在下边,目的为了增加正样本
        off = torch.tensor([[0, 0],
                            [1, 0], [0, 1], [-1, 0], [0, -1],  # j,k,l,m
                            # [1, 1], [1, -1], [-1, 1], [-1, -1],  # jk,jm,lk,lm
                            ], device=targets.device).float() * g  # offsets 偏置矩阵
        # nl预测头的数量,输出layer的数量。顺序为降采样8-16-32
        # anchor匹配需要逐层进行。不同的预测层其特征图的尺寸不一样,而targets是相对于输入分辨率的宽高做了归一化,targets * gain通过将归一化的box坐标投影到特征图上。

        for i in range(self.nl):
            anchors = self.anchors[i]  #获取该层特征图中的anchor shape=[3,2】
            gain[2:6] = torch.tensor(p[i].shape)[[3, 2, 3, 2]]  # xyxy gain   获取该层特征图的尺寸(1,1,w,h,w,h,1)

            # Match targets to anchors
            # #targets[image,class,x,y,w,h,anchor indices]的box坐标转换到特征图上
            # 在box坐标生成的时候,对box坐标进行了归一化,即除以图像的宽高),通过将归一化的box乘以特征图的尺度,从而将坐标投影到特征图上,此时t和targets尺寸一样,[3,nt,7]
            t = targets * gain
            # Matches 当该batch中存在标签,获取每个box对应的anchor,并生成对符合规定的anchor
            if nt:
                # yolov5抛弃了MaxIOU匹配规则而采用shape匹配规则,计算标签box和当前层的anchors的宽高比,即:wb/wa,hb/ha。
                # 如果宽高比大于设定的阈值说明该box没有合适的anchor,在该预测层之间将这些box当背景过滤掉(是个狠人!)。
                # 对b中保存下来的gt进行扩充:
                # 1) 保存现有所有的gt
                # 2)保存box中心点坐标Xc距离网格左边的距离小于0.5且坐标大于1的box
                # 3)保存box中心点坐标Yc距离网格上边的距离小于0.5且坐标大于1的box
                # 4)保存box中心点坐标Xc距离网格右边的距离小于0.5且坐标大于1的box
                # 5)保存box中心点坐标Yc距离网格下边的距离小于0.5且坐标大于1的box 将该5中box构成需要的gt
                #
                # 补充:为什么会取距离四边小于0.5的点,是因为等于0.5时,我们认为该box正好落到该网格中,但是小于0.5时,可能是因为在网络不断降采样时,对特征图尺度进行取整导致box中心产生了偏差,
                # 所以作者将小于0.5的box减去偏执1(off矩阵),使得box中心移动到相邻的特征图网格中,从而对正样本进行扩充,保证了偏差导致的box错位以及扩充了正样本的个数
                #获取box和3个anchor的对应的的长宽比
                r = t[:, :, 4:6] / anchors[:, None]  # wh ratio r.shape=[3,nt,2]
                # 如果长宽比中的最大值小于anchor_t,则该box是合适的box,并获取对应的anchor
                j = torch.max(r, 1. / r).max(2)[0] < self.hyp['anchor_t']  # compare j.shape=[3,nt]
                # j = wh_iou(anchors, t[:, 4:6]) > model.hyp['iou_t']  # iou(3,n)=wh_iou(anchors(3,2), gwh(n,2))
                t = t[j]  # filter t.shape=[182,7] 按照该匹配策略,一个gt box可能在同一层同时匹配上多个anchor。

                # Offsets 获取选择完成的box的*中心点*坐标-gxy(以图像左上角为坐标原点),并转换为以特征图右下角为坐标原点的坐标-gxi
                gxy = t[:, 2:4]  # grid xy 
                gxi = gain[[2, 3]] - gxy  # inverse

                # 分别判断box的(x,y)坐标是否大于1,并距离网格左上角的距离(准确的说是y距离网格上边或x距离网格左边的距离)小于0.5,如果(x,y)中满足上述两个条件,则选中.gxy.shape=[182,2],包含x,y,所以判别后转置得到j,k,2个结果
                # 对转换之后的box的(x,y)坐标分别进行判断是否大于1,并距离网格右下角的距离(准确的说是y距离网格下边或x距离网格右边的距离)距离小于0.5,如果(x,y)中满足上述两个条件,为Ture
                j, k = ((gxy % 1. < g) & (gxy > 1.)).T
                l, m = ((gxi % 1. < g) & (gxi > 1.)).T
                #torch.cat()对tensors沿指定维度拼接,但返回的Tensor的维数不会变,torch.stack()同样是对tensors沿指定维度拼接,但返回的Tensor会多一维
                # 获取所有符合要求的box,将原始box和扩增的box进行合并
                j = torch.stack((torch.ones_like(j), j, k, l, m))
                t = t.repeat((5, 1, 1))[j]
                # 生成所有box对应的偏置,原始box偏置为0,k,k,l,m分别别对应off中的[1,5]偏移
                offsets = (torch.zeros_like(gxy)[None] + off[:, None])[j]
            else:
                t = targets[0]
                offsets = 0

            # Define
            # 获取保留的gt中中心点坐标和网格点坐标的偏执与box的wh构成新的box信息(Cx-X,Cy-Y,w,h)
            # 最后获取4个向量
            # a.indice[图像序号,anchor序号,网格点坐标x,网格点坐标y]
            # b.tbox  box的对应坐标[Cx-X,Cy-Y,w,h]
            # c.anch tbox对应的anchor索引
            # d.tcls tbox对应的类别

            # 获取每个box的图像索引和类别
            b, c = t[:, :2].long().T  # image, class
            # 获取box的xy和wh
            gxy = t[:, 2:4]  # grid xy
            gwh = t[:, 4:6]  # grid wh
            # 获取每个box所在的网格点坐标
            gij = (gxy - offsets).long()
            gi, gj = gij.T  # grid xy indices

            # Append
            # 获取每个anchor索引
            a = t[:, 6].long()  # anchor indices
            # 保存图像序号 anchor序号和网格点坐标
            indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1)))  # image, anchor, grid indices
            # 获取(x,y)相对于网格点的偏置,以及box的宽高
            tbox.append(torch.cat((gxy - gij, gwh), 1))  # box
            anch.append(anchors[a])  # anchors
            tcls.append(c)  # class

        return tcls, tbox, indices, anch

一些思考

RetinaNet中认为One-Stage算法的精度相对于Two_Stage偏低,然后作者把这种问题的原因归结于正负类别不平衡(简单难分类别不平衡)。所以yolov5中在anchor策略中中通过左上角和右下角正样本的网格偏移来增加正样本的数量,解决正负样本失衡的问题。

那为什么正负样本比例失衡就导致检测精度低了呢?

loss = lobj + lcls + lbox
lobj 的loss计算中将所有的anchor(包括正样本和背景)的loss都计算在内,所以如果背景(容易负样本)太多,会导致lobj值偏大,从而导致收敛过多的关注于这些容易负样本,难样本的loss对权重的更新影响很小,所以导致收敛的精度不高。yolov5中lobj 、 lcls、 lbox都增加了可调节的权重,使得能够通过超参数调节这种情况。

【参考文章】目标检测算法之RetinaNet(引入Focal Loss)

试验中采用focal loss 作为损失函数,当增大focal loss权重的时候,会导致推理时score值的减小。原因???

yolov5推理的输出的score值是什么?和iou有关吗?如果有关,focal loss 使得loss收敛更关注于难样本,所以会对置信度有关系吗?

  • 5
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Yolov5-6.0是一种目标检测算法,它是基于深度学习YOLO(You Only Look Once)系列算法的最新版本。下面是对Yolov5-6.0源码的一些解析: 1. 网络结构:Yolov5-6.0采用了一种轻量级的网络结构,主要由一系列的卷积层、池化层和上采样层组成。整个网络结构可以根据输入图像的尺寸进行自适应调整,以适应不同的目标检测任务。 2. 特征提取:Yolov5-6.0使用了一种称为CSPDarknet的主干网络,它基于Darknet53网络进行了改进。CSPDarknet采用了一种跨阶段连接的结构,可以更好地保留图像的细节信息,并且减少了参数量和计算量。 3. 检测头:Yolov5-6.0使用了一种称为YOLOv5Head的检测头,它负责生成目标检测的预测结果。YOLOv5Head包括了一系列的卷积层和全连接层,用于提取特征并生成目标的类别、位置和置信度等信息。 4. 训练和推理:Yolov5-6.0提供了完整的训练和推理代码。在训练过程中,它使用了一种称为YOLOv5Loss的损失函数,用于计算目标检测的损失值,并通过反向传播算法更新网络参数。在推理过程中,Yolov5-6.0可以接受输入图像,并输出目标检测的结果,包括目标的位置、类别和置信度等信息。 总的来说,Yolov5-6.0是一种高效准确的目标检测算法,它通过设计轻量级的网络结构和使用先进的特征提取和检测头模块,实现了在目标检测任务上的优秀性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值