NLL_Loss & CrossEntropyLoss(交叉熵)

EntropyLoss
交叉熵损失函数。交叉熵描述了两个概率分布之间的距离,当交叉熵越小,说明二者之间越接近。

实际上,可以认为:

CrossEntropyLoss = log_sofrmax + NLLLoss

在对图片进行分类时,通常会一次性输入n张图片,最后得出一个n*c的tensor,c是此次分类的类别数:
比如:n=10,c=2,表示一共10张图片,类别为2类

output = torch.tensor([[-2.8799,  1.1380],
        [ 0.4756, -0.2773],
        [ 1.0269,  1.3615],
        [ 0.6602, -0.3820
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值