torch模块中NLLLoss损失与LogSoftmax激活层的关系

import torch
import cv2 as cv

m = torch.nn.LogSoftmax(dim=1)
loss = torch.nn.NLLLoss()
Input = torch.randn(2, 2, requires_grad=True)
print(Input)
target = torch.tensor([0, 1])
print("m(input)", m(Input))
output = loss(m(Input), target)
print("Target", target)
print("output", output)

1.Softmax激活层我们大家都知道:
例如:有一个二维张量
[[1,2],
[3,4]]
Softmax计算过程与结果为:
如果:Softmax(dim=0)
[[exp(1)/exp(1)+exp(3),exp(2)/exp(2)+exp(4)],
[exp(3)/exp(1)+exp(3),exp(4)/exp(2)+exp(4)]]

如果:Softmax(dim=1)
[[exp(1)/exp(1)+exp(2),exp(2)/exp(1)+exp(2)],
[exp(3)/exp(3)+exp(4),exp(4)/exp(3)+exp(4)]]

大家可以计算器算一下,dim=0表示的是为二维张量的列,dim=1表示为行,大家可以结合一下图像分类的内容:
假设一个训练集有猫,狗,猪三类,使用Softmax激活函数,可以将训练结果以数字的方式呈现出来,比如说输入一张图片像狗,dim=1,那么结果可能为
(0.1,0.89,0.01)

LogSoftmax就是在Softmax激活层加上Log操作,Log就是我们常说的ln(这里要注意一下,不然拿计算器算不对)

NLLLoss损失要求其输入为log形式的张量,这里往往有一个
Target:这里的target的含义需要注意一下,例如:
你最后得到的结果为:
[[0.1,0.9],
[0.1,0.8]]
假设target为{0,1},那么就表示第一行取索引为0的值,也就是0.1
第二行取索引为1的值,也就是0.8
这里相当于分类的目标结果,我的目标为索引为{0,1}
torch.nn.NLLLoss有一个参数为Reduction,若这个参数为“mean”则:
最后求两个值的平均值,也就是(0.1+0.8)/2

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值