GHM------Gradient Harmonized Single-stage Detector 从梯度的方向来解决样本不均衡的问题

最近GHM太热门了,因此最近在做GHM的实验,因此做个笔记。

文章:https://arxiv.org/pdf/1811.05181.pdf

code:https://github.com/libuyu/GHM_Detection

介绍GHM之前,先提一下

Focal loss:

精辟的介绍Focal loss

Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。

Focal loss做了什么:

在二分类交叉熵前面加了权重,而权重由输出的概率经过是一些计算得到,最终实现概率小的loss比较大,优化力度大,概率大的loss偏小,从而对于比较多的简单背景给小的loss,让少学习简单样本,多学习复杂样本。

但Focal loss比较麻烦的就是有两个超参数,调起来比较麻烦。

 

GHM:(Gradient Harmonizing Mechanism)梯度均衡机制

研究者对样本不均衡的本质影响进行了进一步探讨,找到了梯度分布这个更为深入的角度,并以此入手改进了单阶段检测器的训练过程。 

在单阶段检测器的训练中,简单样本的数量非常大,它们产生的累计贡献就在模型更新中就会有巨大的影响力甚至占据主导作用,而由于它们本身已经被模型很好的判别,所以这部分的参数更新并不会改善模型的判断能力,也就使整个训练变得低效。

基于这一点,研究者对样本梯度的分布进行了统计,并根据这个分布设计了一个梯度均衡机制(Gradient Harmonizing mechanism),使得模型训练更加高效与稳健,并可以收敛到更好的结果(实验中取得了好于 Focal Loss 的表现)。

由于梯度均衡本质上是对不同样本产生的梯度进行一个加权,进而改变它们的贡献量,而这个权重加在损失函数上也可以达到同样的效果,此研究中,梯度均衡机制便是通过重构损失函数来实现的。

Focal Loss 本质上是对简单样本进行相对的抑制,越简单的样本受抑制的程度越大,这一点和 GHM-C 所做的均衡是十分相似的。此外,GHM-C 还对一些离群样本进行了相对的抑制,这可以使得模型训练更具稳定性。

关于GHM比较好的解读:

https://blog.csdn.net/c9Yv2cf9I06K2A9E/article/details/86581671

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
前景类和背景类之间存在极度不平衡的问题被称为前景-背景不平衡。在这种情况下,背景类占据了很大的比例,而前景类的比例过小。这种不平衡问题在训练期间出现,不依赖于数据集中每个类的样本数量,因为它不包含前景和背景的相关信息。\[2\]这种不平衡现象在目标检测中很常见,其中大多数边界框被标记为背景类。\[2\]解决前景-背景不平衡的方法包括使用加权损失函数、过采样前景类样本、欠采样背景类样本等。\[2\]此外,还可以使用一些基于采样的方法,如难例挖掘和在线困难样本挖掘,来平衡前景和背景类之间的比例。\[3\]这些方法可以帮助提高模型对前景类的检测性能。 #### 引用[.reference_title] - *1* *3* [检测中的不平衡问题解决办法](https://blog.csdn.net/qq_34945661/article/details/120592751)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [前景背景样本均衡解决方案:Focal Loss,GHM与PISA(附python实现代码)](https://blog.csdn.net/weixin_44736161/article/details/122403920)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值