import torch
import cv2 as cv
m = torch.nn.LogSoftmax(dim=1)
loss = torch.nn.NLLLoss()
Input = torch.randn(2, 2, requires_grad=True)
print(Input)
target = torch.tensor([0, 1])
print("m(input)", m(Input))
output = loss(m(Input), target)
print("Target", target)
print("output", output)
1.Softmax激活层我们大家都知道:
例如:有一个二维张量
[[1,2],
[3,4]]
Softmax计算过程与结果为:
如果:Softmax(dim=0)
[[exp(1)/exp(1)+exp(3),exp(2)/exp(2)+exp(4)],
[exp(3)/exp(1)+exp(3),exp(4)/exp(2)+exp(4)]]
如果:Softmax(dim=1)
[[exp(1)/exp(1)+exp(2),exp(2)/exp(1)+exp(2)],
[exp(3)/exp(3)+exp(4),exp(4)/exp(3)+exp(4)]]
大家可以计算器算一下,dim=0表示的是为二维张量的列,dim=1表示为行,大家可以结合一下图像分类的内容:
假设一个训练集有猫,狗,猪三类,使用Softmax激活函数,可以将训练结果以数字的方式呈现出来,比如说输入一张图片像狗,dim=1,那么结果可能为
(0.1,0.89,0.01)
LogSoftmax就是在Softmax激活层加上Log操作,Log就是我们常说的ln(这里要注意一下,不然拿计算器算不对)
NLLLoss损失要求其输入为log形式的张量,这里往往有一个
Target:这里的target的含义需要注意一下,例如:
你最后得到的结果为:
[[0.1,0.9],
[0.1,0.8]]
假设target为{0,1},那么就表示第一行取索引为0的值,也就是0.1
第二行取索引为1的值,也就是0.8
这里相当于分类的目标结果,我的目标为索引为{0,1}
torch.nn.NLLLoss有一个参数为Reduction,若这个参数为“mean”则:
最后求两个值的平均值,也就是(0.1+0.8)/2