信息论
Chap1.绪论
1、通信过程是一种消除不确定性的过程。
2、香农对信息的定义:信息是事物运动状态或存在方式的不确定性的描述。
3、在通信系统中,形式上传输的是消息,但实质上传输的是信息。
4、通信的结果是消除或部分消除不确定性从而获得信息。
5、信号是消息的运载工具。
6、香农信息定义的特点
优点:是一个科学的定义,有明确的数学模型和定量计算;与日常用语中信息的含义一致;
缺点:假定事物状态可以用一个以经典集合论为基础的概率模型来描述,然而对实际事物运动状态或存在方式寻找一个合适的概率模型是困难的;只考虑概率引发的不确定性,不考虑模糊性等造成的不确定性;没有考虑收信者的主观特性,也撇开了信息的具体含义、用途、重要程度和引起的后果等因素。
Chap2.随机信号分析
略
Chap3.离散信源及其信息测度
1、无记忆信源:输出符号彼此独立且等概。
2、有记忆信源:信源在不同时刻发出的符号之间是相互依赖的。
3、限时、限频随机过程可用 2 F T 2FT 2FT维随机向量表示 。
4、自信息量的物理含义:
i)当事件 a i a_i ai发生以前,表示事件 a i a_i ai发生的不确定性;
ii)当事件 a i a_i ai发生以后,表示事件 a i a_i ai所含有(或提供)的信息量。
5、信息熵:自信息的期望(平均自信息量)
6、信息熵 H ( X ) H(X) H(X)的物理含义:
i)信息熵 H ( X ) H(X) H(X)是表示信源输出后,每个消息(或符号)所提供的平均信息量。
ii)信息熵 H ( X ) H(X) H(X)是表示信源输出前,信源的平均不确定性。
iii)用信息熵 H ( X ) H(X) H(X)来表征变量 X X X的随机性。
7、信息熵的性质:
1)对称性:信息熵括号里符号的顺序不影响信息熵的值;
2)确定性:确知信源的熵等于0;
3)非负性:离散信源的熵不为负;
4)扩展性:信源中增加一条概率很小的消息,熵不变(由于概率很小);
5)可加性:对数的性质;
6)强可加性:联合熵等于条件熵加非条件熵;
证明:
H
n
m
=
−
∑
i
∑
j
p
(
x
i
y
j
)
log
p
(
x
i
y
j
)
=
−
∑
i
∑
j
p
i
p
j
i
log
p
i
p
j
i
=
−
∑
i
∑
j
p
i
p
j
i
log
p
i
−
∑
i
∑
j
p
i
p
j
i
log
p
j
i
=
−
∑
i
(
∑
j
p
j
i
)
p
i
log
p
i
−
∑
i
p
i
∑
j
p
j
i
log
p
j
i
=
−
∑
i
p
i
log
p
i
+
∑
i
p
i
(
−
∑
j
p
j
i
log
p
j
i
)
=
H
(
X
)
+
H
(
Y
∣
X
)
\begin{aligned} H_{nm}&=-\sum_{i}\sum_{j}p(x_iy_j)\log p(x_iy_j)\\ &=-\sum_{i}\sum_{j}p_ip_{ji}\log p_ip_{ji}\\ &=-\sum_{i}\sum_{j}p_ip_{ji}\log p_i-\sum_{i}\sum_{j}p_ip_{ji}\log p_{ji}\\ &=-\sum_{i}(\sum_{j}p_{ji})p_{i}\log p_i-\sum_{i}p_i\sum_{j}p_{ji}\log p_{ji}\\ &=-\sum_{i}p_{i}\log p_i+\sum_{i}p_i(-\sum_{j}p_{ji}\log p_{ji})\\ &=H(X)+H(Y|X) \end{aligned}
Hnm=−i∑j∑p(xiyj)logp(xiyj)=−i∑j∑pipjilogpipji=−i∑j∑pipjilogpi−i∑j∑pipjilogpji=−i∑(j∑pji)pilogpi−i∑pij∑pjilogpji=−i∑pilogpi+i∑pi(−j∑pjilogpji)=H(X)+H(Y∣X)
7)递增性:划分的不确定性引起熵增;
8)极值性:等概分布熵最大;
9)上凸性:熵是概率向量的严格 ∩ \cap ∩型凸函数。
8、条件熵 H ( Y ∣ X ) H(Y|X) H(Y∣X)是 x i x_i xi取不同值时的熵的期望。
9、 N N N次扩展信源的熵是原信源熵的 N N N倍。
对于离散平稳信源 X X X,当 H 1 ( X ) < ∞ H_1(X)<\infty H1(X)<∞时,有如下几点性质:
(1)条件熵 H ( X N ∣ X 1 X 2 . . . X N − 1 ) H(X_N|X_1X_2...X_{N-1}) H(XN∣X1X2...XN−1)是 N N N的单调非增函数;即:序列越长,不确定度越小;
(2)当 N N N给定时,平均符号熵 ≥ \ge ≥条件熵,即 H N ( X ) ≥ H ( X N ∣ X 1 X 2 . . . X N − 1 ) H_N(\mathbf{X})\ge H(X_N|X_1X_2...X_{N-1}) HN(X)≥H(XN∣X1X2...XN−1);即:条件多的熵小于等于条件少的熵;
(3)平均符号熵 H N ( X ) H_N(\mathbf{X}) HN(X)随 N N N的增加非递增;
(4) H ∞ = lim N → ∞ H N ( X ) = lim N → ∞ H ( X N ∣ X 1 X 2 . . . X N − 1 ) H_\infty=\lim_{N\to \infty}H_N(\mathbf{X})=\lim_{N\to \infty}H(X_N|X_1X_2...X_{N-1}) H∞=limN→∞HN(X)=limN→∞H(XN∣X1X2...XN−1),其中 H ∞ H_\infty H∞为离散平稳信源的极限熵或极限信息量,也称为离散平稳信源的熵率。当离散平稳信源的记忆长度有限(记为 m m m),其极限熵为 H ∞ = lim N → ∞ H ( X N ∣ X 1 X 2 . . . X N − 1 ) = H ( X m + 1 ∣ X 1 X 2 . . . X m ) H_\infty=\lim_{N\to \infty}H(X_N|X_1X_2...X_{N-1})=H(X_{m+1}|X_1X_2...X_m) H∞=limN→∞H(XN∣X1X2...XN−1)=H(Xm+1∣X1X2...Xm)。
对于离散平稳信源,当考虑依赖关系为无限长时,平均符号熵和条件熵都非递增地一致趋于极限熵。
符号的极限概率为
P ( a k ) = ∑ i Q ( s i ) P ( a k ∣ s i ) H ( X ∣ s j ) = − ∑ i P ( a i ∣ s j ) log ( P ( a i ∣ s j ) ) H ∞ = ∑ j Q ( s j ) H ( X ∣ s j ) P(a_k)=\sum_iQ(s_i)P(a_k|s_i)\\ H(X|s_j)=-\sum_iP(a_i|s_j)\log(P(a_i|s_j))\\ H_\infty=\sum_jQ(s_j)H(X|s_j) P(ak)=i∑Q(si)P(ak∣si)H(X∣sj)=−i∑P(ai∣sj)log(P(ai∣sj))H∞=j∑Q(sj)H(X∣sj)
解题通话:此状态马尔可夫链是时齐的,状态数有限的和是不可约闭集,所以其具有各态历经性,平稳后状态的极限概率分布存在。(时齐、遍历的 m m m阶马尔可夫信源并非是记忆长度为 m m m的离散平稳信源,只有当N足够长,信源状态稳定,由 m m m个符号组成的状态稳定分布,才可看作记忆长度为 m m m的离散平稳信源)
10、熵的相对率和信源剩余度
η
=
H
∞
H
0
=
H
∞
log
r
γ
=
1
−
η
=
R
s
\eta=\frac{H_{\infty}}{H_0}=\frac{H_{\infty}}{\log{r}}\\ \gamma=1-\eta=R_s
η=H0H∞=logrH∞γ=1−η=Rs
Chap4.离散信道及其信道容量
1、互信息: I ( x ; y ) = log P ( x ∣ y ) P ( x ) I(x;y)=\log\cfrac{P(x|y)}{P(x)} I(x;y)=logP(x)P(x∣y)
I
(
X
,
Y
)
=
H
(
X
)
−
H
(
X
∣
Y
)
I(X,Y)=H(X)-H(X|Y)
I(X,Y)=H(X)−H(X∣Y),即接收前的不确定度减去接收后的不确定度,定义为获得的信息量。
I
(
X
;
Y
)
=
∑
X
P
(
x
)
log
1
P
(
x
)
−
∑
X
,
Y
P
(
x
y
)
log
1
P
(
x
∣
y
)
=
∑
X
,
Y
P
(
x
y
)
log
1
P
(
x
)
−
∑
X
,
Y
P
(
x
y
)
log
1
P
(
x
∣
y
)
=
∑
X
,
Y
P
(
x
y
)
log
P
(
x
∣
y
)
P
(
x
)
\begin{align} I(X;Y)&=\sum_XP(x)\log\cfrac{1}{P(x)}-\sum_{X,Y}P(xy)\log\cfrac{1}{P(x|y)}\\ &=\sum_{X,Y}P(xy)\log\cfrac{1}{P(x)}-\sum_{X,Y}P(xy)\log\cfrac{1}{P(x|y)}\\ &=\sum_{X,Y}P(xy)\log\cfrac{P(x|y)}{P(x)}\\ \end{align}
I(X;Y)=X∑P(x)logP(x)1−X,Y∑P(xy)logP(x∣y)1=X,Y∑P(xy)logP(x)1−X,Y∑P(xy)logP(x∣y)1=X,Y∑P(xy)logP(x)P(x∣y)
3、平均互信息的特性
i)非负性:只有 X X X、 Y Y Y统计独立互信息才会为0,完全收不到关于 X X X的信息,且不会损失知道的信息。
ii)极值性:获得的信息不会比 X X X本来的知识还要多。
iii)对称性:由于是一一对应的,变量顺序可以互换。
iv)凸状性:固定信道,一定存在一个信源能达到信道容量;固定信源,一定存在一个信道使信息传输率(平均互信息)最小( R ( D ) R(D) R(D)的概念)。
*信息传输速率 R t = 1 t I ( X ; Y ) = R B C R_t=\frac{1}{t}I(X;Y)=R_BC Rt=t1I(X;Y)=RBC,单位为bps/symbol,其中 R B R_B RB为符号速率。
4、二元对称信道(BSC)的信道容量 C = 1 − H ( p , 1 − p ) C=1-H(p,1-p) C=1−H(p,1−p)。
5、无噪无损信道矩阵是单位阵,信道容量 C = log ( r ) C=\log(r) C=log(r)(输入等概分布)。
6、
有噪无损信道中, H ( X ∣ Y ) = 0 H(X|Y)=0 H(X∣Y)=0,即得知 Y Y Y的信息后,总能知道它是哪个 X X X发来的。有噪无损信道的信道容量 C = log ( r ) C=\log(r) C=log(r)(输入符号等概分布)。
7、
无噪有损信道中, H ( Y ∣ X ) = 0 H(Y|X)=0 H(Y∣X)=0,即得知 X X X的信息后,总能知道它发给了哪个 Y Y Y。无噪有损信道的信道容量 C = log ( s ) C=\log(s) C=log(s)(输出符号等概分布)。
8、信道矩阵 P P P中的每一行都是由同一 { p 1 , p 2 , . . . , p s } \{p_1,p_2,...,p_s\} {p1,p2,...,ps}集中的诸元素不同排列而成,并且每一列也都是由同一 { q 1 , q 2 , . . . , q r } \{q_1,q_2,...,q_r\} {q1,q2,...,qr}集中的诸元素不同排列而成,则称信道矩阵 P P P的信道为对称离散信道。
9、强对称信道需要满足的三个条件:1)对称离散信道;2) r = s r=s r=s;3)错误分布均匀;
C
=
log
s
−
H
(
p
1
,
p
2
,
.
.
.
,
p
s
)
(
b
i
t
/
符号
)
C=\log s-H(p_1,p_2,...,p_s)(bit/符号)
C=logs−H(p1,p2,...,ps)(bit/符号)
达成最大值的条件:输入(出)符号等概分布,
(
p
1
,
p
2
,
.
.
.
,
p
s
)
(p_1,p_2,...,p_s)
(p1,p2,...,ps)是各行元素。
10、准对称信道
C
=
log
r
−
H
(
p
1
,
p
2
,
.
.
.
,
p
s
)
−
∑
k
N
k
log
M
k
C=\log r-H(p_1,p_2,...,p_s)-\sum_kN_k\log M_k
C=logr−H(p1,p2,...,ps)−k∑NklogMk
其中,
r
r
r是输入符号集的个数,
N
k
N_k
Nk是第
k
k
k个子矩阵
Q
k
Q_k
Qk中行元素之和,
M
k
M_k
Mk是第
k
k
k个子矩阵
Q
k
Q_k
Qk中列元素之和。达成最大值的条件:输入符号等概分布。
11、N次扩展信道的信道容量 C N = N C C^{N}=NC CN=NC。
12、独立并联信道的信道容量不大于各个信道的信道容量之和。只有当输入符号 X i X_i Xi相互独立, 且输入符号 X i X_i Xi的概率分布达到各信道容量的最佳输入分布时, 独立并联信道的信道容量才等于各个信道的信道容量之和。
13、信息不增性原理:最后获得的信息最多是信源所提供的信息。如果一旦在某一过程中丢失一些信息,以后的系统不管如何处理,如不涉及到丢失信息过程的输入端,就不能再恢复已丢失的信息。
14、数据处理定理:通过数据处理后,一般只会增加信息的损失,最多保持原来获得的信息,不可能比原来获得的信息还多。
15、信道相对剩余度 R c = 1 − I ( X ; Y ) C = 1 − H ( X ) log r R_c=1-\frac{I(X;Y)}{C}=1-\frac{H(X)}{\log r} Rc=1−CI(X;Y)=1−logrH(X)(无损信道中 I ( X ; Y ) = H ( X ) I(X;Y)=H(X) I(X;Y)=H(X));信源与信道匹配的含义:将信源输出的信息进行无失真编码后,使新信源的输出符号接近等概率分布,新信源的熵接近最大熵,这样信道传输的信息量达到最大,信道剩余度接近于零,信源和信道达到了匹配。
Chap5.连续信源及信道容量
1、连续信源相对熵(差熵)的性质
i)可加性: h ( X Y ) = h ( X ) + h ( Y ∣ X ) = h ( Y ) + h ( X ∣ Y ) h(XY)=h(X)+h(Y|X)=h(Y)+h(X|Y) h(XY)=h(X)+h(Y∣X)=h(Y)+h(X∣Y)。
ii)凸状性和极值性:差熵具有极大值。
iii)可为负性:由于差熵的定义中去掉了一项无限大的常数项, 所以差熵可取负值, 由此性质也可以看出, 差熵不能表达连续事物所含有的信息量。
2、均匀分布连续信源的差熵: h ( X ) = log ( b − a ) h(X)=\log(b-a) h(X)=log(b−a)。
限频限时随机过程的差熵: h ( X ) = 2 F T log ( b − a ) h(X)=2FT\log(b-a) h(X)=2FTlog(b−a);熵率 h t ( X ) = 2 F log ( b − a ) h_t(X)=2F\log(b-a) ht(X)=2Flog(b−a)(单位时间内输出的最大信息量)。
3、高斯分布连续信源: p ( x ) = 1 2 π σ 2 exp [ − ( x − m ) 2 2 σ 2 ] p(x)=\cfrac{1}{\sqrt{2\pi\sigma^2}}\exp[-\cfrac{(x-m)^2}{2\sigma^2}] p(x)=2πσ21exp[−2σ2(x−m)2]。
其差熵为 h ( X ) = 1 2 log 2 π e σ 2 = 1 2 log 2 π e P h(X)=\cfrac{1}{2}\log2\pi e\sigma^2=\cfrac{1}{2}\log2\pi eP h(X)=21log2πeσ2=21log2πeP。(第二个等号成立的前提是均值为0)
4、连续信源的最大熵定理:在离散信源中, 当信源符号等概率分布时, 信源的熵取得最大值。
5、限峰值功率最大熵定理:若某信源输出的连续随机变量 X X X的幅度被限定在 [ a , b ] [a,b] [a,b]区域内,则当输出信号的概率密度是均匀分布时,信源具有最大熵,其值等于 log ( b − a ) \log(b-a) log(b−a)。若当 N N N维随机向量取值受限时,也只有各随机分量统计独立并均匀分布时具有最大熵。
6、限平均功率最大熵定理:若一个连续信源输出信号的平均功率被限定为
P
P
P,则其输出信号幅度的概率密度分布是高斯分布时,信源有最大的,其值为
1
2
log
2
π
e
P
\cfrac{1}{2}\log2\pi eP
21log2πeP。
对于
N
N
N维连续平稳信源来说,若其输出的
N
N
N维随机序列的协方差矩阵
C
\mathbf C
C被限定,则
N
N
N维随机矢量为高斯分布时信源的最大,也就是
N
N
N维高斯信源的熵最大,其值为
1
2
log
∣
det
C
∣
+
N
2
log
2
π
e
\cfrac{1}{2}\log |\det\mathbf C|+\cfrac{N}{2}\log 2\pi e
21log∣detC∣+2Nlog2πe。
7、熵功率:当信号平均功率受限时,高斯分布信源的熵最大。令其平均功率为
P
P
P,则其熵:
h
(
X
)
=
log
2
π
e
P
h(X)=\log\sqrt{2\pi eP}
h(X)=log2πeP
若平均功率为
P
P
P的非高斯分布的信源具有熵为
h
h
h,称也为
h
h
h的高斯信源的平均功率为熵功率
P
ˉ
\bar P
Pˉ,即熵功率:
P
ˉ
=
1
2
π
e
e
2
h
\bar P=\cfrac{1}{2πe}e^{2h}
Pˉ=2πe1e2h
且有 P ˉ ≤ P \bar P≤P Pˉ≤P,其中 h h h是每个自由度的熵。
熵功率是衡量一个信源的熵与同样平均功率限制下的高斯信源熵的不一致程度。熵功率的大小可以表示连续信源剩余度的大小,因此,信号平均功率和熵功率之差 ( P − P ˉ ) (P-\bar{P}) (P−Pˉ)被称为连续信源的剩余度。只有高斯分布的信源其熵功率等于实际平均功率,其剩余度为零。这种信源就是高斯噪声信源。
8、一般多维加性连续信道的信道容量:
C
=
max
p
(
x
)
I
(
X
;
Y
)
=
max
p
(
x
)
[
h
(
Y
)
−
h
(
n
)
]
h
(
n
)
=
log
2
π
e
σ
2
=
h
(
Y
∣
X
)
C=\max_{p(\mathbf x)}I(\mathbf X;\mathbf Y)=\max_{p(\mathbf x)}[h(\mathbf Y)-h(\mathbf n)]\\ h(\mathbf{n})=\log\sqrt{2\pi e\sigma^2}=h(Y|X)
C=p(x)maxI(X;Y)=p(x)max[h(Y)−h(n)]h(n)=log2πeσ2=h(Y∣X)
9、高斯加性连续信道的信道容量:
C
=
max
p
(
x
)
I
(
X
;
Y
)
=
1
2
log
2
π
e
P
o
−
1
2
log
2
π
e
σ
2
=
1
2
log
(
P
o
σ
2
)
=
1
2
log
(
1
+
P
i
σ
2
)
\begin{align} C&=\max_{p(\mathbf x)}I(\mathbf X;\mathbf Y)=\cfrac{1}{2}\log 2\pi eP_o-\cfrac{1}{2}\log 2\pi e\sigma^2\\ &=\cfrac{1}{2}\log(\cfrac{P_o}{\sigma^2})=\cfrac{1}{2}\log(1+\cfrac{P_i}{\sigma^2}) \end{align}
C=p(x)maxI(X;Y)=21log2πePo−21log2πeσ2=21log(σ2Po)=21log(1+σ2Pi)
注水法:见课本P147。
10、限频、限功率高斯信道容量
由香农信道容量公式可知,高斯加性信道的信道容量是非高斯加性信道的信道容量的下限值,所以高斯加性信道是平均功率受限条件下的最差信道。
证明:由熵功率不等式
σ
ˉ
X
2
+
σ
ˉ
n
2
≤
σ
ˉ
Y
2
≤
σ
X
2
+
σ
n
2
h
(
Y
)
=
1
/
2
log
2
π
e
P
Y
≥
1
/
2
log
2
π
e
(
P
s
+
σ
ˉ
n
2
)
C
≥
I
(
X
;
Y
)
≥
1
2
log
2
π
e
(
P
s
+
σ
ˉ
n
2
)
−
1
2
log
2
π
e
σ
ˉ
n
2
=
1
2
log
(
1
+
P
s
σ
ˉ
n
2
)
=
1
2
log
(
1
+
P
s
P
n
ˉ
)
≥
1
2
log
(
1
+
P
s
P
n
)
\bar{\sigma}_X^2+\bar{\sigma}_n^2\le \bar{\sigma}_Y^2\le \sigma_X^2 + \sigma_n^2\\ h(Y)=1/2\log 2\pi eP_Y\ge 1/2\log 2\pi e(P_s+\bar{\sigma}_n^2)\\ C\ge I(X;Y)\ge \cfrac{1}{2}\log 2\pi e(P_s+\bar{\sigma}_n^2)-\cfrac{1}{2}\log 2\pi e\bar{\sigma}_n^2=\cfrac{1}{2}\log(1+\cfrac{P_s}{\bar{\sigma}_n^2})=\cfrac{1}{2}\log(1+\cfrac{P_s}{\bar{P_n}})\ge \cfrac{1}{2}\log(1+\cfrac{P_s}{P_n})
σˉX2+σˉn2≤σˉY2≤σX2+σn2h(Y)=1/2log2πePY≥1/2log2πe(Ps+σˉn2)C≥I(X;Y)≥21log2πe(Ps+σˉn2)−21log2πeσˉn2=21log(1+σˉn2Ps)=21log(1+PnˉPs)≥21log(1+PnPs)
香农信道容量公式的意义:
R
i
=
W
log
(
1
+
P
s
i
P
n
i
)
R
o
=
W
s
log
(
1
+
P
o
i
P
n
i
)
令
R
i
=
R
o
,有
1
+
P
o
i
P
n
i
=
(
1
+
P
s
i
P
n
i
)
W
/
W
s
即可以通过提高
W
来减小信噪比
P
s
i
P
n
i
但存在一个极限,即
lim
W
→
∞
C
t
=
P
s
N
0
ln
2
=
1.4427
P
s
N
0
R_i=W\log(1+\cfrac{P_{si}}{P_{ni}})\\ R_o=W_s\log(1+\cfrac{P_{oi}}{P_{ni}})\\ 令R_i=R_o,有1+\cfrac{P_{oi}}{P_{ni}}=(1+\cfrac{P_{si}}{P_{ni}})^{W/W_s}\\ 即可以通过提高W来减小信噪比\cfrac{P_{si}}{P_{ni}}\\ 但存在一个极限,即\\ \begin{align} \lim_{W \to \infty} C_t=\cfrac{P_s}{N_0\ln2}=1.4427\cfrac{P_s}{N_0} \end{align}
Ri=Wlog(1+PniPsi)Ro=Wslog(1+PniPoi)令Ri=Ro,有1+PniPoi=(1+PniPsi)W/Ws即可以通过提高W来减小信噪比PniPsi但存在一个极限,即W→∞limCt=N0ln2Ps=1.4427N0Ps
11、连续信道编码定理也称为香农有噪信道编码定理:对于限带高斯白噪声加性信道,噪声功率为
P
n
P_n
Pn,带宽为
W
W
W,信号平均功率受限为
P
s
P_s
Ps,则
(1)当
R
≤
C
=
W
log
(
1
+
P
s
P
n
)
R≤C=W\log(1+\cfrac{P_s}{P_n})
R≤C=Wlog(1+PnPs)时,总可以找到一种信道编码在信道中以信息传输率
R
R
R传输信息,而使错误概率任意小;
(2)当
R
>
C
=
W
log
(
1
+
P
s
P
n
)
R>C=W\log(1+\cfrac{P_s}{P_n})
R>C=Wlog(1+PnPs)时,找不到一种信道编码在信道中以信息传输率
R
R
R传输信息,而使错误概率任意小。
12、若 y = f ( x ) y=f(x) y=f(x), h ( y ) = h ( x ) − log ( d x d y ) h(y)=h(x)-\log(\cfrac{dx}{dy}) h(y)=h(x)−log(dydx)。
Chap6.无失真信源编码
1、信源编码是在提高有效性的角度,提高信息传输率;
信道编码是在提高可靠性的角度,提高抗干扰能力。
2、非奇异码:一组码中的所有码字都不相同;
3、若码的任意一串有限长的码符号序列只能被唯一地译成所对应的信源符号序列,则此码称为唯一可译码(可分离码)。否则,称为非唯一可译码。
判断可分离码的原则
i)任何短码不能是长码的前缀(等长码没有相同的码字,变长码的尾随后缀都不是码字);
ii)如果某一码枝被选作编码字后,其后一个节点以后的所有码枝就不能再作为其它的可用码字;
iii)满足Kraft不等式( ∑ 符号元 数 − 码长 ≤ 1 \sum 符号元数^{-码长}\le1 ∑符号元数−码长≤1,唯一可译码存在的充要条件为码长组合满足Kraft不等式)。
若码符号集中每个码符号所占的传输时间都相同,则所得的码 c c c为同价码。
4、即时码
(1)若在码
c
c
c中,没有任何完整的码字是其它码字的前缀,则称为即时码,也称为非延长码;
(2)即时码是惟一可译码的一类子码,所以即时码一定是唯一可译码,反之惟可译码不一定都是即时码。
5、等长信源编码定理:若编的等长码是唯一可译码,则必须满足
m
N
≥
n
L
m^N \ge n^L
mN≥nL,即转换后的码字要比转换前多
N
L
≥
log
n
log
m
\cfrac{N}{L} \ge \cfrac{\log n}{\log m}
LN≥logmlogn
对于等长唯一可译码,每个信源符号至少需要用
log
n
/
log
m
\log n/\log m
logn/logm个码符号来变换。
6、无失真等长信源编码定理:对于 ∀ ε > 0 \forall\varepsilon>0 ∀ε>0,只要满足 N L ≥ H ( X ) + ε log m \cfrac{N}{L} \ge \cfrac{H(X)+\varepsilon}{\log m} LN≥logmH(X)+ε则解码时为无失真,若不满足上式时,则解码时将有无穷大的失真。在实际情况下,要实现几乎无失真的等长编码, L L L需要大到难以实现的程度。
如果编码结果所具有的熵比输入符号的熵大一点,就能实现无失真编码。即: 只要码字传输的信息量大于信源序列携带的信息量,总可以实现几乎无失真编码。
离散无记忆信源无失真压缩的极限值(无论等长码还是变长码),也就是无失真信源编码定理,香农第一定理:
lim
n
→
∞
N
L
=
H
(
X
)
log
m
\lim_{n \to \infty} \cfrac{N}{L}=\cfrac{H(X)}{\log m}
n→∞limLN=logmH(X)
7、编码后信源的实际传输率
R
′
R'
R′:编码后平均每个信源符号能载荷的最大信息量,即总信息量(
m
m
m元的码须有
log
m
\log m
logm比特的信息表示)/信源长度。
R
′
=
N
L
log
m
≥
H
(
X
)
+
ε
R'=\cfrac{N}{L}\log m\ge H(X)+\varepsilon
R′=LNlogm≥H(X)+ε
编码效率
η
\eta
η:衡量各种实际等长编码方法的编码效果。
η
=
H
(
X
)
R
′
=
H
(
X
)
N
/
L
×
l
o
g
m
\eta=\cfrac{H(X)}{R'}=\cfrac{H(X)}{N/L\times logm}
η=R′H(X)=N/L×logmH(X)
最佳等长编码的效率:
η
=
H
(
X
)
H
(
X
)
+
ε
\eta=\cfrac{H(X)}{H(X)+\varepsilon}
η=H(X)+εH(X)
移项,可得:
ε
=
1
−
η
η
×
H
(
X
)
ε=\cfrac{1-\eta}{\eta}\times H(X)
ε=η1−η×H(X)
8、变长码往往在 N N N不很大时就可编出效率很高而且无失真的码,前提是可分离码。
9、信源编码的平均码长:
N
ˉ
=
∑
i
P
(
x
i
)
N
i
\bar N=\sum_iP(x_i)N_i
Nˉ=∑iP(xi)Ni(码符号/信源符号)
编码后信道的信息传输效率(码率):每个码元所携带的平均信息量。
R
=
H
(
X
)
N
ˉ
(
比特
/
信源符号
码符号
/
信源符号
)
R=\cfrac{H(X)}{\bar{N}}(\cfrac{比特/信源符号}{码符号/信源符号})
R=NˉH(X)(码符号/信源符号比特/信源符号)
编码后信道的每秒钟传输的信息量:
R
t
=
H
(
X
)
t
×
N
ˉ
R_t=\cfrac{H(X)}{t\times \bar N}
Rt=t×NˉH(X)(bit/秒)
η
=
R
C
=
H
(
X
)
N
ˉ
×
log
m
\eta=\cfrac{R}{C}=\cfrac{H(X)}{\bar N\times \log m}
η=CR=Nˉ×logmH(X)
10、按符号变长编码定理:若一个离散无记忆信源
X
=
(
X
1
,
X
2
,
.
.
.
,
X
L
)
X=(X_1,X_2,...,X_L)
X=(X1,X2,...,XL),其熵为
H
(
X
)
H(X)
H(X),用
m
m
m种码元对各个符号进行变长可分离编码,则一定能找到一种无失真的编码方法,构成唯一可译码,使其平均码长满足
H
(
X
)
log
m
≤
N
ˉ
≤
H
(
X
)
log
m
+
1
\cfrac{H(X)}{\log m}≤\bar N≤\cfrac{H(X)}{\log m}+1
logmH(X)≤Nˉ≤logmH(X)+1
若此条件不满足,则编码为不可分离的。
不失一般性,对于一个长为 L L L的序列有: H ( X ) log m ≤ N ˉ ≤ H ( X ) log m + 1 L \cfrac{H(X)}{\log m}\le \bar N\le \cfrac{H(X)}{\log m}+\cfrac{1}{L} logmH(X)≤Nˉ≤logmH(X)+L1
11、Shannon编码:由于信源消息状态概率分布的不均匀,使编码效率下降。因此,可以将概率大的编成短码,概率小的编成长码。
12、Huffman编码
13、Fano编码
Chap7. 信息率失真函数R(D)
1、信宿不能分辨或对通信质量影响不大的失真,是允许范围内的失真。
对于限失真信源,应该传送的最小信息率是 R ( D ) R(D) R(D),而不是无失真情况下的信源熵 H ( U ) H(U) H(U),则 H ( U ) ≥ R ( D ) H(U)≥R(D) H(U)≥R(D)。当且仅当 D = 0 D=0 D=0时, H ( U ) = R ( D ) H(U)=R(D) H(U)=R(D)。
2、失真矩阵
3、符号序列的失真函数是单符号失真函数的均值,共有 n N × m N n^N \times m^N nN×mN个元素。
4、平均失真度 D ˉ = E d ( x i , y j ) = ∑ i , j p i × p j i × d i j \bar{D}=Ed(x_i,y_j)=\sum_{i,j}p_i\times p_{ji}\times d_{ij} Dˉ=Ed(xi,yj)=∑i,jpi×pji×dij。
5、保真度准则:平均失真度 D ˉ \bar{D} Dˉ不大于所允许的失真度 D D D,即 D ˉ ≤ D \bar{D}\le D Dˉ≤D,相当于对 p j i p_{ji} pji进行了限制。
6、
R
(
D
)
R(D)
R(D)函数的定义
R
(
D
)
=
min
P
j
i
∈
P
D
{
I
(
X
;
Y
)
}
P
D
=
{
P
j
i
:
D
≥
D
ˉ
=
∑
i
∑
j
p
i
p
j
i
d
i
j
}
R(D)=\min_{P_{ji}\in P_D}\{I(X;Y)\}\\ P_D=\{P_{ji}:D\ge \bar D=\sum_i\sum_jp_ip_{ji}d_{ij}\}
R(D)=Pji∈PDmin{I(X;Y)}PD={Pji:D≥Dˉ=i∑j∑pipjidij}
R
(
D
)
R(D)
R(D)是信源传输的最小平均信息量。信源输出的信息传输率可压缩到
R
(
D
)
R(D)
R(D)(
R
′
→
R
(
D
)
R'\to R(D)
R′→R(D))。是在信源和允许失真
D
D
D给定情况下,接收端(用户)以满足失真要求, 而再现消息所必须获得的最少平均信息量。
7、保真度准则下的信源编码定理(也称为香农第三定理):
设
R
(
D
)
R(D)
R(D)为离散无记忆信源的信息率失真函数,在允许失真度
D
D
D给定的情况下,总是存在一种信源编码方法,使得编码后信源符号的信息传输率
R
′
>
R
(
D
)
R'>R(D)
R′>R(D),而码的平均失真度
D
ˉ
≤
D
\bar D≤D
Dˉ≤D。反之,若
R
′
<
R
(
D
)
R'<R(D)
R′<R(D),则码的平均失真度
D
ˉ
>
D
\bar D>D
Dˉ>D。
该编码方法的码字个数 M = 2 N R ′ M=2^{NR'} M=2NR′,其中 N N N是码长。
比较香农第一定理和第三定理可知,当信源给定时,无失真信源压缩( D = 0 D=0 D=0)的下限值是信源熵 H ( X ) H(X) H(X);而有失真信源压缩(允许失真度为 D D D)的下限值是信息率失真函数 R ( D ) R(D) R(D)。一般情况下,在给定允许失真度 D D D情况下, R ( D ) < H ( X ) R(D)<H(X) R(D)<H(X)。这说明在允许失真的情况下,信源数据可以进一步压缩。
8、
该函数是单调递减的 ∪ \cup ∪型凸函数。
第二个等号成立,因为此时
X
X
X、
Y
Y
Y已经统计独立。也可以写作
D
m
a
x
=
min
{
P
(
x
)
⋅
D
}
D_{max}=\min\{\mathbf P(x)·\mathbf D\}
Dmax=min{P(x)⋅D}
达到
D
m
i
n
=
P
(
x
)
⋅
min
j
D
D_{min}=\mathbf P(x)·\min_j \mathbf D
Dmin=P(x)⋅jminD
在汉明失真信源下,
r
r
r元对称信源的信息率失真函数为
R
(
D
)
=
log
r
−
D
log
(
r
−
1
)
−
H
(
D
,
1
−
D
)
,
0
≤
D
≤
1
−
1
r
R(D)=\log r-D\log(r-1)-H(D,1-D),\quad 0\le D\le 1-\cfrac{1}{r}
R(D)=logr−Dlog(r−1)−H(D,1−D),0≤D≤1−r1