熵函数图像清晰度评价代码_语义分割中常用的损失函数2(进阶篇)

1、Focal Loss

二分类问题的标准loss是0-1交叉熵损失:

c1e50e5184f86e08e65dd5d852224651.png

y'是经过sigmoid激活函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而言,输出概率越大损失越小。对于负样本而言,输出概率越小则损失越小。是有用的。

存在什么问题:

当负样本数量太大,占总的loss的大部分,而且多是容易分类的,因此使得模型的优化方向并不是我们所希望的那样。

38f894d47f0e2b1222c427072649960f.png

改进点1:控制正负样本的权重

2badc825cef268d3c172d5c86fd951fd.png

增加了一个系数at,跟pt的定义类似,当label=1的时候,at=a;当label=-1的时候,at=1-a,a的范围也是0到1。因此可以通过设定a的值(一般而言假如1这个类的样本数比-1这个类的样本数多很多,那么a会取0到0.5来增加-1这个类的样本的权重)来控制正负样本对总的loss的共享权重。这里当a=0.5时就和标准交叉熵一样了(系数是个常数)。

改进点2:控制容易分类和难分类样本的权重

a92d5bd16e5cd8b508ff991f839210ad.png

e12deb9cee9506ba623b11852d2ce16c.png

这里介绍下focal loss的两个重要性质:1、当一个样本被分错的时候,pt是很小的(请结合公式2,比如当y=1时,p<0.5才是错分类,此时pt就比较小,反之当y=-1时,p>0.5是错分了),因此调制系数就趋于1,也就是说相比原来的loss是没有什么大的改变的。当pt趋于1的时候(此时分类正确而且是易分类样本),调制系数趋于0,也就是对于总的loss的贡献很小。2、当 γ=0γ=0的时候,focal loss就是传统的交叉熵损失,当 γγ 增加的时候,调制系数也会增加。

focal loss的两个性质算是核心,其实就是用一个合适的函数去度量难分类和易分类样本对总的损失的贡献。

b64d6d0bd5178f5961dccdc72951cf37.png

2、dice loss

dice loss的提出就是解决前景比例太小的问题!

dice coefficient 源于二分类,本质上是衡量两个样本的重叠部分。该指标范围从0到1,其中“1”表示完整的重叠。 其计算公式为:

519262af75db5acf8d0fb1a3718dd6a8.png

DiceLoss可以定义为: DiceLoss =1-Dice

3、IOU Loss

9470f1249f40b0eef7bf453bd8967925.png

IOULoss可以定义为: IOULoss =1-Jaccard

4、Lovasz Loss

d1827722c6f52e097ea650e91f35f1fe.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值