cross_entropy=softmax+log+nll_loss
交叉熵损失一般适用于分类问题
MSE可以用在一些比较前沿的算法中
import torch
import torch.nn.functional as F
x=torch.randn(1,784)
w=torch.randn(10,784)
logits=x@w.t()
pred=F.softmax(logits,dim=1)
pred_log=torch.log(pred)
print(F.nll_loss(pred_log,torch.tensor([3])))
print(F.cross_entropy(logits,torch.tensor([3])))