信息熵介绍

在信息论与概率统计中,熵(entropy) 是表示随机变量不确定性的度量。设 X X X是一个取有限个值的离散随机变量,其概率分布为:
P ( X = x i ) = p i , i = 1 , 2 , ⋯   , n P(X=x_i)=p_i,i=1,2,\cdots,n P(X=xi)=pi,i=1,2,,n
则随机变量 X X X的熵定义为:
H ( X ) = − ∑ i = 1 n p i log ⁡ p i (1) H(X)=-\sum_{i=1}^n p_i \log p_i \tag{1} H(X)=i=1npilogpi(1)
上述公式中,当对数以 2 2 2为底时,熵的单位称作比特(bit);当以 e e e为底时,熵的单位称作纳特(nat)。从定义中可以看出,熵只依赖于 X X X的分布,与 X X X的具体取值无关,所以,也可以将 X X X的熵记作 H ( p ) H(p) H(p),如下:
H ( p ) = − ∑ i = 1 n p i log ⁡ p i (2) H(p)=-\sum_{i=1}^n p_i \log p_i \tag{2} H(p)=i=1npilogpi(2)

注释
X X X的熵也可以解释为随机变量 log ⁡ 1 p ( x ) \log \frac{1}{p(x)} logp(x)1的期望。

熵越大,随机变量的不确定性就越大。从定义可以验证
0 ≤ H ( p ) ≤ log ⁡ n (3) 0 \leq H(p) \leq \log n \tag{3} 0H(p)logn(3)
当随机变量只取两个值,例如 1 1 1 0 0 0时,即 X X X的分布为
P ( X = 1 ) = p , P ( X = 0 ) = 1 − p , 0 ≤ p ≤ 1 P(X=1)=p,P(X=0)=1-p,0 \leq p \leq 1 P(X=1)=p,P(X=0)=1p,0p1
熵为:
H ( p ) = − ∑ i = 1 n p i log

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

great-wind

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值