在深度学习中,损失反应模型最后预测结果与实际真值之间的差距,可以用来分析训练过程的好坏,模型是否收敛等。在Pytorch中,损失函数可以看作网络中的某一层放到模型中,但在实际使用中更偏向与作为功能函数放到前向传播过程中。
from torch import nn
import torch.nn.functional as F
#设置标签
label=torch.Tensor([0,1,0,1]).long()
使用CrossEntropyLoss()实例化
#实例化nn中的交叉熵损失类
criterion=nn.CrossEntropyLoss()
#调用交叉熵损失
loss_nn=criterion(output,label)
cross_entropy()是一个函数,可以直接调用,不需要实例化
loss_functional=F.cross_entropy(output,label)
loss_nn与loss_functional相同
即两者求得的损失值相同