Focal loss学习记录

Focal Loss for Dense Object Detection对于one stage方法来说,detection部分要直接处理大量的候选位置,其中负样本要占据绝大部分,SSD的策略是采用hard mining,从大量的负样本中选出loss最大的topk的负样本以保证正负样本比例为1:3.onestage 不好的原因在于:正负样本比例极度不平衡,负样本绝大部分都是简单样本,构成了大部分的损失,并主导了梯度。什么是“类别不平衡”:一幅正常的图像中需要检测的object不会很多,顶多就那么几
摘要由CSDN通过智能技术生成

Focal Loss for Dense Object Detection

对于one stage方法来说,detection部分要直接处理大量的候选位置,其中负样本要占据绝大部分,SSD的策略是采用hard mining,从大量的负样本中选出loss最大的topk的负样本以保证正负样本比例为1:3.

onestage 不好的原因在于:正负样本比例极度不平衡,负样本绝大部分都是简单样本,构成了大部分的损失,并主导了梯度。

什么是“类别不平衡”

  • 一幅正常的图像中需要检测的object不会很多,顶多就那么几个object。这就意味着绝大多数的bbox是属于background,使得foreground-background类别不平衡。
  • bbox中background太多导致分类器对于目标更不准确,所以目标检测的精度很低。
  • two-stage中RPN对anchor进行简单的二分类,大幅筛选掉background的bbox,但是也不能完全解决类别不平衡问题,只能说是在很大程度上减轻了“类别不平衡”对检测精度所造成的影响。

因此,通过重塑标准的交叉熵loss来解决,并且设计了RetinaNet来验证效果。

OHEM(Online Hard Example Mining)是近年兴起的另一种筛选example的方法,它通过对loss排序,选出loss最大的example来进行训练,这样就能保证训练的区域都是hard example。这个方法有个缺陷,它把所有的easy example都去除掉了,造成easy positive example无法进一步提升训练的精度。
在这里插入图片描述

Focal Loss

交叉熵

我们从二元分类的交叉熵(CE)损失开始引入焦点损失

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值