focal loss论文笔记

Focal Loss针对训练集中类别不平衡的问题,通过调整因子自动降低易分类样本的权重,提高难分类样本的影响力,从而改进一阶段检测器的效果。在ResNet-101-FPN主干网络的RetinaNet中,Focal Loss展现出优秀的表现,其在交叉熵基础上增加调节因子,减少易分类样本的贡献,专注于训练难例。实验表明,Focal Loss对于处理大量易分类背景样本具有显著优势,提高了检测器的性能。
摘要由CSDN通过智能技术生成

作者提出,训练集中的类别不平衡是阻碍一阶段检测器达到与二阶段检测器相同效果的主要原因(因为在二阶段检测中,在前景和背景数量上通过启发式采样例如固定前景背景比例,online hard mining部分解决了这一问题),因此提出一个新的loss函数。

相反在一阶段中,尽管启发式采样也被应用,但是训练过程仍然被易被分类的背景examples所主导。这一问题可以通过bootstrapping或者hard example mining解决。

对于bootstrapping介绍见https://blog.csdn.net/chenhongc/article/details/9404583

hard negative mining见https://blog.csdn.net/u012285175/article/details/77866878

而focal loss的思想即,在训练中通过scaling factor自动降低易训练的样本对训练的贡献,而提升难训练样本的权重。至于loss公式具体的形式并不是最重要的,以下给出了一种形式:

\gamma >0的前提下(高IOU的样本被权重弱化)调整几个值显示不同IOU下单独的loss结果。

作者同时给出网络结构RetinaNet(基于ResNet-101-FPN主干)来显示focal loss的效果。

RetinaNet借鉴了许多先前的稠密检测器,例如RPN提出的anchor,SSD和FPN中的特征金字塔等等。然而作者宣称,这些好的效果主要来自loss函数而不是网络结构。

对于focal loss,与其说处理了hard examples,不如说是降低了easy examples的贡献权重。因此作者说,focal loss专注于训练一个hard example

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值