熵速率定义与各类熵的关系

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

熵速率 (entropy rate)

定义:一个平稳的时域离散随机过程的熵速率 (entropy rate) 定义为
H = lim ⁡ n → ∞ H ( X n ∣ X 1 , X 2 , … , X n − 1 ) H=\lim _{n \rightarrow \infty} H(X_{n} \mid X_{1}, X_{2}, \ldots, X_{n-1}) H=nlimH(XnX1,X2,,Xn1)
具有记忆性的信源的熵速率定义为

H = lim ⁡ n → ∞ 1 n H ( X 1 , X 2 , … , X n ) H=\lim _{n \rightarrow \infty} \frac{1}{n} H\left(X_{1}, X_{2}, \ldots, X_{n}\right) H=nlimn1H(X1,X2,,Xn)

Example 两个二进制随机变量 X \mathbf{X} X Y \mathbf{Y} Y , 其联合分布为 p(X=Y=0) = p( X=0, Y=1) = p( X=Y=1) = 1/3 。

计算 H ( X ) H(X) H(X), H ( Y ) H(Y) H(Y), H ( X ∣ Y ) H(X \mid Y) H(XY), H ( Y ∣ X ) H(Y \mid X) H(YX) , and H ( X , Y ) H(X, Y) H(X,Y)

Solution:

p ( X = 0 ) = p ( X = 0 , Y = 0 ) + p ( X = 0 , Y = 1 ) = 2 3 p ( X = 1 ) = p ( X = 1 , Y = 0 ) + p ( X = 1 , Y = 1 ) = 1 3 p ( Y = 0 ) = p ( X = 0 , Y = 0 ) + p ( X = 1 , Y = 0 ) = 1 3 p ( Y = 1 ) = p ( X = 0 , Y = 1 ) + p ( X = 1 , Y = 1 ) = 2 3 H ( X ) = 1 3 log ⁡ 3 + 2 3 log ⁡ 3 2 = 0.9183 H ( Y ) = 1 3 log ⁡ 3 + 2 3 log ⁡ 3 2 = 0.9183 H ( X , Y ) = ∑ i = 1 n p ( X , Y ) log ⁡ ( X , Y ) = log ⁡ 3 = 1.585 H ( X ∣ Y ) = H ( X , Y ) − H ( Y ) = 0.6667 H ( Y ∣ X ) = H ( X , Y ) − H ( X ) = 0.6667 \begin{array}{l} p(X=0)=p(X=0, Y=0)+p(X=0, Y=1)=\frac{2}{3} \\ p(X=1)=p(X=1, Y=0)+p(X=1, Y=1)=\frac{1}{3} \\ p(Y=0)=p(X=0, Y=0)+p(X=1, Y=0)=\frac{1}{3} \\ p(Y=1)=p(X=0, Y=1)+p(X=1, Y=1)=\frac{2}{3} \\ H(X)=\frac{1}{3} \log 3+\frac{2}{3} \log \frac{3}{2}=0.9183 \quad H(Y)=\frac{1}{3} \log 3+\frac{2}{3} \log \frac{3}{2}=0.9183 \\ H(X, Y)=\sum_{i=1}^{n} p(X, Y) \log (X, Y)=\log 3=1.585 \\ H(X \mid Y)=H(X, Y)-H(Y)=0.6667 \quad H(Y \mid X)=H(X, Y)-H(X)=0.6667 \end{array} p(X=0)=p(X=0,Y=0)+p(X=0,Y=1)=32p(X=1)=p(X=1,Y=0)+p(X=1,Y=1)=31p(Y=0)=p(X=0,Y=0)+p(X=1,Y=0)=31p(Y=1)=p(X=0,Y=1)+p(X=1,Y=1)=32H(X)=31log3+32log23=0.9183H(Y)=31log3+32log23=0.9183H(X,Y)=i=1np(X,Y)log(X,Y)=log3=1.585H(XY)=H(X,Y)H(Y)=0.6667H(YX)=H(X,Y)H(X)=0.6667

各类熵的关系

  1. 条件熵不大于信息熵

熵的不增原理: H ( Y / X ) ≤ H ( Y ) H(Y / X) \leq H(Y) H(Y/X)H(Y)

  1. 联合熵不大于个信息熵的和,即

    H ( X 1 X 2 … X N ) ≤ ∑ i = 1 N H ( X i ) H\left(X_{1} X_{2} \ldots X_N\right) \leq \sum_{i=1}^{N} H\left(X_{i}\right) H(X1X2XN)i=1NH(Xi)

    仅当各 X i X_{i} Xi 相互独立时, 等号成立。

  2. H ( X Y ) = H ( X ) + H ( Y ∣ X ) = H ( Y ) + H ( X ∣ Y ) H(X Y)=H(X)+H(Y \mid X)=H(Y)+H(X \mid Y) H(XY)=H(X)+H(YX)=H(Y)+H(XY)

  3. H ( X ) ≥ H ( X ∣ Y ) ; H ( Y ) ≥ H ( Y ∣ X ) H(X) \geq H(X \mid Y) ; H(Y) \geq H(Y \mid X) H(X)H(XY);H(Y)H(YX)

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

timerring

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值