pytorch-nllloss-cross_entropy 一句话描述 交叉熵损失函数等于对softmax结果取自然对数后进行负对数似然计算cross_entropy=log_softmax+nll_loss 官方文档 小例程 # input is of size N x C = 3 x 5 print(torch.__version__) input = torch.randn(3