EntropyLoss
交叉熵损失函数。交叉熵描述了两个概率分布之间的距离,当交叉熵越小,说明二者之间越接近。
实际上,可以认为:
CrossEntropyLoss = log_sofrmax + NLLLoss
在对图片进行分类时,通常会一次性输入n张图片,最后得出一个n*c的tensor,c是此次分类的类别数:
比如:n=10,c=2,表示一共10张图片,类别为2类
output = torch.tensor([[-2.8799, 1.1380],
[ 0.4756, -0.2773],
[ 1.0269, 1.3615],
[ 0.6602, -0.3820