注:借鉴整理,仅供自学,侵删
交叉熵(CrossEntropy):
单标签(分类)时,每张图片的损失是一个交叉熵,交叉熵针对的是所有类别(所有类别概率和是1)。 多标签(分类)时,每张图片的损失是N个交叉熵之和(N等于类别数),交叉熵针对的是单个类别(单个类别概率和是1)。
一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉
交叉熵损失函数原理详解
均方差(MSE Mean Square Error):真实值与预测值差值的平方的均值。在二维图像中,该函数代表每个散点到拟合曲线y轴距离的总和,非常直观。
目标检测回归损失函数简介:SmoothL1/IoU/GIoU/DIoU/CIoU Loss
四种算法的优缺点:
- IoU算法是使用最广泛的算法,大部分的检测算法都是使用的这个算法。
- GIoU考虑到,当检测框和真实框没有出现重叠的时候IoU的loss都是一样的(0),因此GIoU就加入了C检测框(C检测框是包含了检测框和真实框的最小矩形框),这样就可以解决检测框和真实框没有重叠的问题。但是当检测框和真实框之间出现包含的现象的时候GIoU就和IoU loss是同样的效果了。
- DIoU考虑到GIoU的缺点,也是增加了C检测框,将真实框和预测框都包含了进来,但是DIoU计算的不是框之间的交并,而是计算的每个检测框之间的欧氏距离,这样就可以解决GIoU包含出现的问题。
- CIoU就是在DIoU的基础上增加了检测框尺度的loss,增加了长和宽的loss,这样预测框就会更加的符合真实框。
BCEloss:预测结果中有多个y值:目标检测一张图片多个真实框