学习笔记8:常用损失函数之交叉熵(Cross Entropy)

本文深入探讨信息量、熵的概念,解释了相对熵(KL散度)和交叉熵的区别与联系,强调了交叉熵在评估分类问题中预测概率与真实概率差异的重要性。
摘要由CSDN通过智能技术生成

1.信息量

假设X是一个离散型随机变量,其取值集合为 X X ,概率分布函数为 p(x)=Pr(X=x),xX p ( x ) = P r ( X = x ) , x ∈ X ,我们定义事件 X=x0 X = x 0 的信息量为: I(x0)=log(p(x0)) I ( x 0 ) = − l o g ( p ( x 0 ) ) 可以理解为,一个事件发生的概率越大,则它所携带的信息量就越小,而当p(x0)=1时,熵将等于0,也就是说该事件的发生不会导致任何信息量的增加。

2.熵的概念

对于一个随机变量X而言,它的所有可能取值的信息量的期望E[I(x)]就称为熵。
X的熵的定义为:

H(X)=Eplog1p(x)=xXp(x)logp(x) H ( X ) = E p log ⁡ 1 p ( x ) = − ∑ x ∈ X p ( x ) log ⁡ p ( x )

如果p(x)是连续型随机变量的pdf,则熵定义为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值