Focal Loss for Dense Object Detection 类不平衡

这篇文章是Kaiming大神和RBG的新作  主要解决不平衡的问题

这是当时作分享的时候做的一个PPT 有需要的可以下载

一些名词:

ground-truth:真值

oreground-background:前景-背景

hard examples:困难样本

Feature Pyramid Network (FPN):特征金字塔 kaiming大神的另一篇文章

anchors:锚点

摘要(抓重点)

我们知道 目标检测的算法可以分为两大类:one-stage 、two-stage 两种方法的比较如下:

出发点:one-stage detector是否可以达到two-stage detector的准确率,同时不影响原有的速度?

有了这个出发点后 就要调查 为什么 one-stage不如two-stage 引用原文的话We discover that the extreme foreground-background class imbalance encountered during training of dense detectors is the central cause.前景和背景的不平衡是主要原因(比如一张图里面有一只猫,我们要检测这只猫,那相应的草啊、地面啊等等就属于背景,猫就是前景,也许背景占的比例很大,猫占的比例很小,就是所谓的foreground-background class imbalance

解决办法:重塑交叉熵损失函数来降低容易分的类的权重  reshaping the standard cross entropy loss such that it down-weights the loss assigned to well-classified examples

摘要看完 无非就是 问题提出 问题描述 问题解决 的一个大概思路 接下来就会详细讲实现过程啦!所以看摘要 围绕着三点来看 给自己 一个大概的思路(个人感觉的哈)

介绍部分(简略看)

第一段介绍two-stage的光辉历史

第二段夸奖one-stage

第三段引出focal loss

第四段 介绍在two-stage上解决不平衡的一些方法

第五段 介绍在one-stage上解决不平衡的一些方法

第六段 focal loss 压轴出场 a more effective alternative to previous approaches for dealing with class imbalance. 实验表明,focal loss使我们能够训练一个高精度,单级探测器,它明显优于采样启发式算法或困难样本挖掘的训练方法和以前用于训练单级探测器的先进技术。

相关工作部分(简略看)

主要介绍了一些物体检测、行人检测、one-stage、two-stage的大概,这里提到了不平衡类带来的影响:

1.训练效率低下,容易分类的负样本数量太大,占总的loss的大部分,使得训练低效

2.整体而言,负样本主导了训练并导致出现不好的模型

Focal loss

1.二分类的交叉熵 如下公式1:

y代表真值,的取值为+1或者-1,代表是1类和-1类类(因为是二分类 所以只有两类)

p代表概率,取值为0到1

eg:当真实标签为1,即y=1时,假如某个样本x预测为1类的概率p=0.6 那么损失就是-log(0.6)

假设 y=1 p=0.6 loss=-log(0.6) ;

        y=1 p=0.9 loss=-log(0.9)  

        -log(0.6)>-log(0.9) 前面一个损失较高

为了方便,用pt代替p,如下公式2:

2.平衡交叉熵

增加了一个系数at,跟pt的定义类似,当label=1的时候,at=a;当label=-1的时候,at=1-a,a的范围也是0到1,可以用于控制正负样本的权重A common method for addressing class imbalance is to introduce a weighting factor α [0,1] for class 1 and 1- α for class -1

eg:假如1类的样本多 -1类的样本少 那么应该加大-1类的权重 减小1类的权重 那如何做的呢  就是调整该系数

假设αt=0.4  则1-αt=0.6

        y=1 p=0.6 loss=-0.4log(0.6) ;

        y=0 p=0.6 loss=-0.6log(0.6)  

可以看到 -1类的权重 明显提高 而且可调

但是该方法 只能调整正负样本的权重 对于难分类和易分类的没办法控制 所以就有了如下的focal loss:

3.focal loss

 

4改进的交叉熵损失

作者在实验中采用的是公式5focal loss(结合个公式,这样既能调整正负样本的权重,又能控制难易分类样本的权重

实验证明,该公式相比没有α系数的loss函数 能提高一定的准确率

 

实验

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值