图像分割损失函数的改进
语义分割模型在训练过程中通常使用简单的softmax cross-entropy。但是,如果想获得图像的细节信息,则需要更高级的损失函数。
1.Focal 损失
Focal loss是对标准的交叉熵评价函数的改进。通过对其变形实现,以使分配给分好类别样本的损失是低权重的。最终,这确保了没有分类失衡。在该损失函数中,随着正确类别置信度的增加,交叉熵损失随比例因子逐渐衰减为零。比例因子会在训练时自动降低简单样本的贡献,更注重复杂的样本。
2.Dice 损失
Dice 损失通过计算平滑的 dice 系数函数得到。该损失是分割问题中最常用的损失函数之一。
3.IoU-平衡损失
IoU-平衡分类损失旨在增加高 IoU 样本的梯度同时减少低 IoU 样本的梯度。通过这种方法,提升机器学习模型的定位准确率。
4.边界损失
边界损失的一种变体被用于高度不平衡的分割任务。这种损失的形式是一种空间轮廓而非区域的距离度量。此方式解决了高度不平衡任务中区域损失带来的问题。
5.加权交叉熵
在交叉熵的一种变体中,所有正向的样本都按一定的系数加权,用于类不平衡的情况下。
6.Lovász-Softmax 损失
该损失基于凸 Lovasz 扩展的子模块损失,直接优化神经网络中的平均 IoU。