【深度学习】分类loss

Introduction

Note:

CE

交叉熵误差 (Cross-entropy Loss,CE) :

C E ( y ^ ) = − 1 N ∑ i = 1 N [ I { y = y ′ } log ⁡ ( p t ) ] CE(\hat{y}) = - \frac{1}{N} \sum_{i=1}^N [I \{y=y'\} \log(p_t)] CE(y^)=N1i=1N[I{y=y}log(pt)]

Note

  • N N N该batch的样本数。

  • I { y = y ′ } I \{y=y'\} I{y=y}只对 gt 所对应的那一个单类进行响应计算

  • p t = { 1 1 + e − x , 先 s i g m o i d e x i ∑ j = 1 c e x j , 先 s o f t m a x p_t=\left\{ \begin{aligned} &\frac{1}{1 + e^{-x}}&,&先sigmoid \\ &\frac{e^{x_{i}}}{\sum_{j=1}^c e^{x_j}}&,&先softmax \end{aligned} \right. pt= 1+ex1j=1cexjexisigmoidsoftmax

求导
损失函数 - 交叉熵损失函数

FL

焦点误差(Focal Loss,FL),于2017年提出。

其设计如下:

F L ( y ^ ) = ( 1 − p t ) γ C E ( y ^ ) FL(\hat{y}) = (1-p_t)^\gamma CE(\hat{y}) FL(y^)=(1pt)γCE(y^)

γ \gamma γ:gamma。

CE -> FL

FL的出现极大地缓解了CE无法克服的“类别不平衡问题”。FL整体降低了loss,但对量少类的loss削减幅度较小,因此量少类loss所占总loss的比例大大升高。


[1] Deep Learning
[2] 深度学习: Softmax 函数
[3] 深度学习: 目标函数
[4] 交叉熵代价函数

  • 2
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值