【AI数学】hard negative mining

64 篇文章 40 订阅
31 篇文章 5 订阅

困难负例挖掘(hard negative mining)是2009年rbg等人发表在TPAMI上的trick,这个trick就类似于AI模型的“错题集”,把难以区分的sample添加进去继续训练。这是一个增加正负样本discrimination的trick,可以一定程度上减少误检。

原文链接:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5255236

文章标题:《Object Detection with Discriminatively Trained Part-Based Models》


Hard Negative Mining

在早期的目标检测算法中,尤其强调正负样本均衡,在模型的最后一关,都会做一个“二分类”,是目标或不是目标。如Fast R-CNN(https://arxiv.org/pdf/1504.08083.pdf)中,使用的分类器是SVM,就使用了“困难负例挖掘”的技巧。

一些很容易被分类器误判的非目标样本被称为“困难负样本”(hard negative)。这样的例子很好举,比如你做球体检测的时候,背景中有一个圆形干扰物,这个原型干扰物就很容易被误当成目标物体,那这就是一个“hard negative”。

当某负例被分类器误判,模型就会自动把它标记为“负样本”然后丢进训练集重新训练。这一步,就类似于一个错题集。如果同一道题错多次那就是学生的不对了~

模型反复将“错题集”中的错题加入训练,然后一直到能有效区分这些困难负样本和正样本的过程,就叫做“难例挖掘”。

近年来,随着神经网络的发展,hard negative mining逐渐淡出视线。比如,faster R-CNN因为抛弃了SVM,自然而然就抛弃了这个trick(https://arxiv.org/pdf/1506.01497.pdf)。一切都得感谢强大的深度学习,就算不用这个trick,我们对着一直“煲汤”,时间够了也能达到这个trick的效果。不过,前辈留下的好东西,往往可以给我们留下很多启示。


总结

hard negative一直都是CV领域的难题,哪怕再强大的神经网络出现,也架不住训练数据的稀疏。难例是错检的罪魁祸首,所以Hard Negative Mining这个技巧需要被重视起来,不是只像fast rcnn中简单迭代而已。现在有了更成熟的生成式模型、强化学习等技术,其实可以更好的结合hard negative mining的。我们可以从多个维度对难例进行“挖掘”。

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

木盏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值