Anchor Loss: Modulating Loss Scale based on Prediction Difficulty

一篇比较有意思的文章,用来增强模型对易混淆样本的学习,有别于传统的CE和Focal Loss。
文章链接:arxiv
code: github

why need this
理由很简单,我们在做类似分类任务的时候,模型最终往往都会输出一个概率,我们会在输出的所有类别的概率中挑选其中最大的一个作为模型的输出。大部分情况下这种做法是没有问题的,但对于一些易混淆的任务来说,例如图片分类中一些看着相似但类别不一致的图片,人体姿态估计中两个相对的左右关节,这些都会对模型的输出造成一定的困扰。如文章中图1所示:在这里插入图片描述
对于人体姿态估计来说,我们想要识别出左膝盖点,但模型在这个分类的的输出上,除了左膝盖处响应值比较大之外,右膝盖出同样响应值也很大;对于图像分类任务来说,上图是一个bottle,但在can(罐头)类别响应值也很大。所以就会有个问题,虽然真正label的概率已经很大,但其它类别的概率同样很大,这就会造成模型只取最大值时发生错误。Anchor Loss就是要对类别预测错误但分值很高的时候,给予更大的惩罚。

How to do

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值