Label Smoothing 标签平滑 (Label smooth regularization, LSR)

Lable Smoothing 是分类问题中错误标注的一种解决方法。是一种正则化方法, 为了降低模型过拟合(overfitting)

出自inception v3,Transformer中就用到了

我们用softmax最后去输出一个概率的时候,label是正确的是1,错误的是0。也就是说,我们的训练是想让正确的那个分类的softmax的值逼近于1. 但我们知道softmax是很难逼近于1的,需要输出接近无限大的时候,才能逼近于1,使得训练比较困难。那么我们就不要搞成0和1这样,把1的值稍微降一些,降成0.9。在Transformer中,甚至降成了0.1,即对于正确的词,需要softmax输出>0.1就可以了

对于分类问题,特别是多分类问题,常常把向量转换成one-hot-vector(独热向量)。我们采用one-hot标签去进行计算交叉熵损失时,只考虑到训练样本中正确的标签位置(one-hot标签为1的位置)的损失,而忽略了错误标签位置(one-hot标签为0的位置)的损失。这样一来,模型可以在训练集上拟合的很好,但由于其他错误标签位置的损失没有计算,导致预测的时候,预测错误的概率增大。为了解决这一问题,标签平滑的正则化方法便应运而生。
 

没有标签平滑的损失计算的例子

有标签平滑的例子

标签平滑的公式

标签平滑的应用场景

只要loss损失函数中涉及到了cross entropy,都可以应用标签平滑处理。

标签平滑的实质就是促使神经网络中进行softmax激活函数激活之后的分类概率结果向正确分类靠近,即正确的分类概率输出大(对应的one-hot标签为1位置的softmax概率大),并且同样尽可能的远离错误分类(对应的one-hot标签为0位置的softmax概率小),即错误的分类概率输出小。
 

  • 6
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值