20200728
本篇是学习信息论的入门笔记,希望能与各位分享进步!这是第一章:熵、相对熵与互信息~
目录
1. 熵、相对熵与互信息
1.1 绪论与概述
-
香农(C.E.Shannon) 于1948年发表论文 “通信的数学理论” 奠定了信息论的基础。
-
香农第一定理(无失真信源编码定理):给出编码极限。
-
香农第二定理(有噪信道编码定理):传输速率小于信道容量,则误码率可以任意小。
-
香农第三定理(保失真度准则下的有失真信源编码定理):给定失真度,只要码字足够长,就可以使编码的失真度小于给定失真度。
1.2 熵
- 熵的定义:
H ( X ) = H ( p 1 , p 2 , ⋯ , p K ) = − ∑ n = 1 K p n log p n H(X)=H\left(p_{1}, p_{2}, \cdots, p_{K}\right)=-\sum_{n=1}^{K} p_{n} \log p_{n} H(X)=H(p1,p2,⋯,pK)=−n=1∑Kpnlogpn
- 一元信源模型:
[ X p ( x ) ] = [ a 1 a 2 ⋯ a K p ( a 1 ) p ( a 2 ) ⋯ p ( a K ) ] \left[\begin{array}{c}X \\ p(x)\end{array}\right]=\left[\begin{array}{cccc}a_{1} & a_{2} & \cdots & a_{K} \\ p\left(a_{1}\right) & p\left(a_{2}\right) & \cdots & p\left(a_{K}\right)\end{array}\right] [Xp(x)]=[a1p(a1)a2p(a2)⋯⋯aKp(aK)]
有 0 ≤ p n ≤ 1 0 \leq p_n \leq 1 0≤pn≤1, ∑ n = 1 K p n = 1 \sum_{n=1}^K p_n = 1 ∑n=1Kpn=1。若 X ∼ p ( x ) X\sim p(x) X∼p(x),则随机变量 g ( X ) g(X) g(X)的期望为 E [ g ( x ) ] = ∑ g ( x ) p ( x ) E[g(x)]=\sum g(x)p(x) E[g(x)]=∑g(x)p(x)。随机变量 X X X的熵可看为随机变量 l o g ( 1 / p ( X ) ) log(1/p(X)) log(1/p(X))的数学期望,其中 p ( x ) p(x) p(x)为 X X X的概率密度函数。
- 熵函数应符合下面三条公理:(1)对称性:交换下标不影响熵值。(2)最大值:等概分布熵值最大。(3)若 p K = p 11 + . . . + p 1 i p_K = p_{11} + ... + p_{1i} pK=p11+...+p1i则两个分布有如下关系:
H ( p 1 , p 2 , ⋯ , p K − 1 , p 11 , p 12 , ⋯ , p 1 l ) = H ( p 1 , p 2 , ⋯ , p k ) + p k H ( p 11 p K , p 12 p K , ⋯ , p 1 i p K ) H\left(p_{1}, p_{2}, \cdots, p_{K-1}, p_{11}, p_{12}, \cdots, p_{1 l}\right)=H\left(p_{1}, p_{2}, \cdots, p_{k}\right)+p_{k} H\left(\frac{p_{11}}{p_{K}}, \frac{p_{12}}{p_{K}}, \cdots, \frac{p_{1 i}}{p_{K}}\right) H(p1,p2,⋯,pK−1,p11,p12,⋯,p1l)=H(p1,p2,⋯,pk)+pkH(pKp11,pKp12,⋯,pKp1i)
-
熵的含义:(1)平均意义:熵是整个集合的统计特性。(2)信息熵: H ( X ) H(X) H(X)表示每个消息提供的平均信息量。(3)随机性:信息熵 H ( X ) H(X) H(X)表征了变量X的随机性。
-
熵的链式法则:
H ( X 1 , X 2 , ⋯ , X n ) = ∑ i = 1 n H ( X i ∣ X i − 1 , ⋯ , X 1 ) H\left(X_{1}, X_{2}, \cdots, X_{n}\right)=\sum_{i=1}^{n} H\left(X_{i} \mid X_{i-1}, \cdots, X_{1}\right) H(X1,X2,⋯,X