Focal loss的Pytorch实现

1.Focal Loss介绍

Focal loss是在CrossEntropy基础上进行改进的,主要解决了训练中正负样本和简单困难样本重要性不均衡的问题。首次提出是在论文《Focal Loss for Dense Object Detection》中,作者Kaiming He的出发点是想解决样本的类别不均衡导致的one-stage和two-stage的表现差异问题。

样本的不平衡将导致两个问题:1.训练难度上升,因为大部分的样本都是简单样本,很难从中学习到有用的信息;2.大量的某一类样本会使模型的学习能力下降。Focal loss通过在内部加权来解决类别不平衡问题:简单样本降低权重,正负样本按比例分配权重。

 

2.损失函数公式

Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失:

              

y'是经过激活函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而言,输出概率越大损失越小。对于负样本而言,输出概率越小则损失越小。

为了提高对更困难样本的关注,作者加入因子gamma。gamma=0时函数等价于交叉熵loss,gamma>0时对于易分类样本的损失将会更小,困难样本的损失会变大。例如gamma为2,对于正类样本而言,预

  • 9
    点赞
  • 42
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值