Pytorch详解NLLoss和CrossEntropyLoss

pytorch的官方文档看了好久也没看懂。。。多亏广大的网友特别鸣谢参考文献中的网友。。。。

NLLoss损失函数官方示例如下:

 

>>> m = nn.LogSoftmax()
>>> loss = nn.NLLLoss()
>>> # input is of size N x C = 3 x 5
>>> input = torch.randn(3, 5, requires_grad=True)
>>> # each element in target has to have 0 <= value < C
>>> target = torch.tensor([1, 0, 4])
>>> output = loss(m(input), target)
>>> output.backward()
>>>

在进行句子的关系分类时,输入n条句子,输出维度为(batch_size, C)的Tensor,其中C是分类的个数。那官方的文档来说batch_size = 3, 关系分类成5类。

解释如下:

input的输出

input经过log_softmax的输出如下,即m(input):

NLLLoss的结果就是把经过log_softmax函数的值与标签(Label)对应的那个值拿出来相加求和,再求均值,最后在求相反数,也就是添加负号。
现在Target的tensor是[1,0,4]。第一行取第1个元素,第二行取第0个,第三行取第4个,也就是上图中红框中的值,然后相加,再求个均值,最后对均值取负号。结果如下图:

 

代码执行的最终结果和我们手动计算的结果是相同的,可见上述的分析过程是正确的。

CrossEntropyLoss()的执行的最终结果

 

参考文献如下:

Pytorch详解NLLLoss和CrossEntropyLoss

pytorch的官方文档

 

 

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值