信息熵,交叉熵,KL散度,JS散度之间的关系

(1)信息熵介绍:

对于连续型随机变量,假设P为随机变量X的概率分布,则p(x)为随机变量X在X = x处的概率,随机变量X在x处的香农信息量为:

 

\dpi{120} \large f (P) = log\frac{1}{p(x)}= - log p(x)

香农信息量用于刻画消除随机变量X在x处的不确定性所需的信息量的大小。很容易看到:当 X = x 的概率 p (x) 比较大时,就代表此事发生的概率比较大,不确定性因素小,从而 f (P) 会比较小。如随机事件“买了彩票却没中奖” 发生的概率比较大,不需要多少信息量就可以消除不确定性,因此该随机事件的香农信息量就少。

信息熵  H(p) 是香农信息量  -logp(x)  的数学期望,即所有 X= x 处的香农信息量的和,由于每一个x的出现概率不一样(用概率密度函数值p(x)衡量),需要用p(x) 加权求和。因此信息熵是用于刻画消除随机变量X的不确定性所需要的总体信息量的大小。

其数学定义如下:

\large H(p) = H(X) = E_{x\sim p(x)}[-log p(x)] = - \int p(x)log \frac{1}{p(x)} dx

(2)下面这篇博客介绍了交叉熵,KL散度,JS散度以及它们之间的关系,写得很直白(补充:其中的H(X)为信息熵)结合来看,应该对这几者之间的关系就明确了

https://blog.csdn.net/frankiehello/article/details/80614422

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值