【pytorch】pytorch 计算 CrossEntropyLoss 需要先经 softmax 层激活吗

答案是 不需要


碰到一个坑,之前用 pytorch 实现自己的网络时,如果使用CrossEntropyLoss 我总是将网路输出经 softmax激活层后再计算交叉熵损失。刚刚查文档时发现自己大错特错了。

考虑样本空间的类集合为 {0,1,2},网络最后一层有 3 个神经元(每个神经元激活值代表对不同类的响应强度),某个样本送入网络后的输出记为 net_out: [1,2,3], 该样本的真实标签为 0.

那么交叉熵损失的手动计算结果为:

- ln 【 e1 / ( e1 + e2 + e3 ) 】 = 2.4076

  • 网络输出不经 softmax 层,直接由 CrossEntropyLoss 计算交叉熵损失
from torch.autograd import Variable
from torch import nn

in:

net_out = Variable(torch.Tensor([[1,2,3]]))
target = Variable( torch.LongTensor([0]))

criterion = nn.CrossEntropyLoss()
criterion(net_out,target)

out:
Variable containing:
 2.4076
[torch.FloatTensor of size 1]

输出结果为 2.4076,与手动计算结果一致。

  • 网络输出先经 softmax 层,再由 CrossEntropyLoss 计算交叉熵损失
in:

from torch.autograd import Variable

net_out = Variable(torch.Tensor([[1,2,3]]))
target = Variable( torch.LongTensor([0]))

softmax = nn.Softmax()
print(softmax(net_out))

criterion = nn.CrossEntropyLoss()
print(criterion(softmax(net_out),target))

out:

Variable containing:
 0.0900  0.2447  0.6652
[torch.FloatTensor of size 1x3]

Variable containing:
 1.3724
[torch.FloatTensor of size 1]

输出结果为 1.3724, 与手动计算结果不一致。事实上,CrossEntropyLoss() 是 softmax 和 负对数损失的结合。明确这点后,就不难明白1.374 是怎么来的了:

- ln 【 e0.09 / ( e0.09 + e0.2447 + e0.6552 ) 】 = 1.374

补充:

如果用 nn.BCELoss()计算二进制交叉熵, 需要先将 logit 经 sigmod()层激活再送入 nn.BCELoss()计算损失。


作 者: 月牙眼的楼下小黑
联 系zlf111@mail.ustc.edu.cn
声 明: 欢迎转载本文中的图片或文字,请说明出处

  • 30
    点赞
  • 40
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值