信息量
I(信息量)=不确定程度的减少量
自信息量
定义:一个随机事件的自信息量定义为其出现概率对数的负值。
一个消息越不可预测
,它所含的信息量
就越大
(消息发生的概率
越低,信息量越大)
a=2,单位为比特(bit)
信息熵(平均信息量)
![](https://i-blog.csdnimg.cn/blog_migrate/e8674cf06fbe2667d7025eff62ecbf29.png)
大体了解概念和公式,以后再深究。
学习视频:《对话通信原理视频》
公式补充
1. 信 息 熵 1.信息熵 1.信息熵
H ( X ) = E [ − l o g 2 p ( x i ) ] = ∑ i = 1 n p ( x i ) l o g 2 1 p ( x i ) 比 特 / 符 号 H(X)=E[-log_2p(x_i)]=\textstyle \sum_{i=1}^n p(x_i)log_2 \frac{1}{p(x_i)}比特/符号 H(X)=E[−log2p(xi)]=∑i=1np(xi)log2p(xi)1比特/符号
也 可 用 H ( p 1 , p 2 , . . . , p n ) 表 示 也可用H(p_1,p_2,...,p_n)表示