Cross Entropy Loss 交叉熵损失函数学习

Cross Entropy Loss 交叉熵损失

多分类问题

特点

使用softmax作为输出,且所有输出的概率为1。

公式

H = − ∑ i o i ∗ log ⁡ ( o i ) H = - \sum\nolimits_i {o_i^*} \log ({o_i}) H=ioilog(oi)

实例应用

假设真实标签的one-hot编码为[0,0,…,1,…,0,0]
预测的softmax概率为[0.1,0.2,…,0.4,…,0.1,0.1]
根据公式得到: L o s s = − log ⁡ ( 0.4 ) Loss = - \log (0.4) Loss=log(0.4)

二分类问题

特点

使用sigmiod作为输出,每个输出节点之间互不相干

公式

H = − 1 N ∑ i = 1 N [ o i ∗ log ⁡ o i + ( 1 − o i ∗ ) log ⁡ ( 1 − o i ) ] H = - \frac{1}{N}\sum\limits_{i = 1}^N {[o_i^*} \log {o_i} + (1 - o_i^*)\log (1 - {o_i})] H=N1i=1N[oilogoi+(1oi)log(1oi)]


带*号的为真实标签值,不带*号的为预测值。log默认为e为底数的ln。

参考文献

哔哩哔哩——1.1Faster RCNN理论合集

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值