pytorch里的cross_entropy,log_softmax,nll_loss最清楚简单的区分。再也不迷糊!

这篇博客详细解释了信息论中的自信息、香农熵和交叉熵概念,并深入剖析了PyTorch中cross_entropy、log_softmax和nll_loss的关系。以图像分类为例,说明了log_softmax如何将预测结果转化为概率,nll_loss如何与交叉熵结合用于损失计算。通过理解这些,可以避免在使用中产生混淆。
摘要由CSDN通过智能技术生成

1.首先明白信息论的以下概念:

 

自信息:I(x)代表信息的多少

香农熵H(X):代表一个分布下自信息的期望,也就是自信息的均值。

交叉熵/cross_entropy/H(P,Q):

注意:上图中的DL(P||Q)指的是KL散度,DEEP LEARNING中模糊了交叉熵 和KL散度的区分,本质上两者是不同的,但deep中用交叉熵代替KL散度来衡量两个分布的差距,具体为什么可以就是因为H(P)=H(target)为定值。

2.pytorch中的cross_entropy,log_softmax,nll_loss

为了方便理解以图像分类为例子 我们有target:(N*C)的Onehot形式(如【0,0,1,0,0】)的标签和pred(N*C)的网络预

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值