第3章 信息论基础

http://www.cnblogs.com/xkfz007/archive/2012/07/28/2613690.html

1. 通信系统的组成

  • 信源:产生消息
  • 信道:传输消息
  • 信宿:接收消息

2. 基本概念

  • 通信中对信息的表达分为三个层次:信号,消息,信息。
    • 信号:是信息的物理层表达,可测量,可描述,可显示。如电信号,光信号。
    • 消息:是信息的载体,以文字,语言,图像等人类可以认知的形式表示。
    • 信息:不确定的内容。

3. 信息熵

信息的特点

信息的测量

自信息量

条件信息量

4. 信息熵

5. 条件熵和联合熵

6. 熵的性质

  • 非负性:信源熵是非负值,即 H(X) >=0;
  • 扩展性:信源熵X有M个符号,如果其中一个符号出现的概率趋于零,信源熵就等于剩余M-1个符号的信源熵;
  • 极值性(最大信息熵):对于具有M个符号的信源,只有在所有符号等概率出现的情况下,信源熵达到最大值,即
  • 可加性:
  • 熵不增:条件熵不大于信息熵 H(X|Y) <= H(X)
  • 联合熵不大于各信息熵的和,即H(XY) <= H(X) + H(Y)

7. 互信息量

8. 互信息

  • 物理意义:H(X)是X所含的信息,H(X|Y)是已知Y的条件下X还能带来的信息量。那么两者之差就是由于知道Y使得X减少的信息量,也即由Y可以得到的关于X的信息量。

9. 各种熵的关系

11. 信源编码

  • 信源编码:将消息符号转变成信道可传输的信息。
  • 两个基本问题:
    • 用尽可能少的信道传输符号来传递信源消息,提高传输效率;
    • 减少由于信道传输符号的减少导致的失真。

12. 离散信源统计特性

13. 离散信源类型:简单无记忆信源和马尔可夫信源

14. 编码分类

  • 等长码:在一组码字集合C中的所有码字cm (m = 1,2, …,M),其码长都相同,则称这组码C为等长码。
  • 变长码:若码字集合C中的所有码字cm (m = 1,2, …,M),其码长不都相同,称码C为变长码。

15. 平均码长

16. 等长码与变长码比较

  • 等长编码将信源输出符号序列的任意一种取值(概率可能不同)都编码成相同长度的输出码字,没有利用信源的统计特性;
  • 变长编码可以根据信源输出符号序列各种取值的概率大小不同,将他们编码成不同长度的输出码字,利用了信源的统计特性。因此又称其为熵编码。

17. Huffman编码

  • Huffman编码:典型的变长编码。
  • 步骤:
    • 将信源符号按概率从大到小的顺序排列,假定p(x1)≥ p(x2)… ≥ p(xn)
    • 给两个概率最小的信源符号p(xn-1), p(xn)各分配一个码位"0"和"1",将这两个信源符号合并成一个新符号,并用这两个最小的概率之和作为新符号的概率,结果得到一个只包含(n-1)个信源符号的新信源。称为信源的第一次缩减信源,用S1表表示。
    • 将缩减信源S1的符号仍按概率从大到小的顺序排列,重复步骤2,得到只含(n-2)个符号的缩减信源S2
    • 重复上述步骤,直至缩减信源只剩下两个符号为止,此时所剩两个符号的概率之和必为1。然后从最后一级缩减信源开始,依编码路径向前返回,就得到各信源符号所对应的码字。

 

18. 信道编码

  • 信道编码主要考虑如何增加信号的抗干扰能力,提高传输的可靠性,并且提高传输效率。
  • 一般是采用冗余编码法,赋予信码自身一定的纠错和检错能力,使信道传输的差错概率降到允许的范围之内。

19. 信道类型

  • 根据信道连续与否分类
    • 离散信道
    • 连续信道
    • 半连续信道
  • 根据信道是否有干扰分类
    • 无干扰信道
    • 有干扰信道
  • 根据信道的统计特性分类
    • 无记忆信道
    • 有记忆信道
    • 恒参信道
    • 变参信道
    • 对称信道
    • 非对称信道

20. 信道容量

  • 在信息论中,称信道无差错传输的最大信息速率为信道容量。
  • 仙农信道容量公式:
    • 假设连续信道的加性高斯白噪声功率为N,信道带宽为B,信号功率为S,则该信道的容量为
    • 由于噪声功率N与信道带宽B有关,则噪声功率N=n0B 。因此,仙农公式还可以表示为

21. 香农信道容量公式的意义

  • 在给定BS/N的情况下,信道的极限传输能力为C,而且此时能够做到无差错传输。如果信道的实际传输速率大于C 值,则无差错传输在理论上就已不可能。因此,实际传输速率一般不能大于信道容量C ,除非允许存在一定的差错率。
  • 提高信噪比S/N(通过减小n0或增大S),可提高信道容量C。特别是,若n0->0,则C->∞ ,这意味着无干扰信道容量为无穷大;
  • 增加信道带宽B,也可增加信道容量C,但做不到无限制地增加。这是因为,如果 Sn0一定,有
  • 维持同样大小的信道容量,可以通过调整信道的BS/N来达到,即信道容量可以通过系统带宽与信噪比的互换而保持不变。

22. 失真

  • 失真:信源的消息经过编解码后不能完全复原
  • 在实际的信源和信道编码中,消息的传输并不总是无失真的。
    • 由于存储和传输资源的限制
    • 噪声等因素的干扰

23. 率失真理论

  • 仙农定义了信息率失真函数R(D)
    • D是消息失真
    • R是码率
  • 率失真定理:在允许一定失真度D的情况下,信源输出的信息率可压缩到R(D)。

24. 失真函数

  • 失真函数:信源符号X={x1, x2, …..xn},经信道传输接收端符号Y={y1, y2….yn},对于每一对(xi, yj)指定一个非负函数 d(xi, yj),称d(xi, yj)为单个符号的失真度或失真函数。对于连续信源连续信道的情况,常用d(x, y)表示。
  • 常用失真函数:

  • 平均失真度:

第1 绪论 1—1 设英文字母E出现的概率为0.105,x出现的概率为0.002。试求E及x的信息量。 解:英文字母E的信息量为 =3.25bit 英文字母x的信息量为 =8.97bit 1—2 某信息源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、l/8、l/8/、3/16和5/16。试求该信息源符号的平均信息量。 解:平均信息量,即信息源的为 = =2.23bit/符号 1—3 设有四个消息A、BC、D分别以概率1/4、1/8、1/8和l/2传送,每一消息的出现是相互独立的,试计算其平均信息量。 解:平均信息量 = =1.75bit/符号 1—4 一个由字母A、B、C、D组成的字。对于传输的每一个字母用二进制脉冲编码,00代替A,01代替B,10代替C,11代替D,每个脉冲宽度为5ms。 (1)不同的字母是等可能出现时,试计算传输的平均信息速率。 (2)若每个字母出现的可能性分别为 PA=l/5,PB=1/4,PC=1/4,PD=3/10 试计算传输的平均信息速率。 解:(1)不同的字母是等可能出现,即出现概率均为1/4。 每个字母的平均信息量为 = =2 bit/符号 因为每个脉冲宽度为5ms,所以每个字母所占用的时间为 2×5×10-3=10-2s 每秒传送符号数为100符号/秒 (2)平均信息量为 = =1.985 bit/符号 平均信息速率为 198.5 比特/秒 1—5 国际莫尔斯电码用点和划的序列发送英文字母,划用持续3单位的电流脉冲表示,点用持续1个单位的电流脉冲表示;且划出现的概率是点出现概率的l/3; (1)计算点和划的信息量; (2)计算点和划的平均信息量。 解:(1)因为划出现的概率是点出现概率的1/3,所以,点出现的概率为P1=3/4, 划出现的概率为P2=l/4。故,点的信息量为 =0.415bit 划的信息量为 =2bit (2)平均信息量 H= + =0.81 bit/符号 1—6 设一信息源的输出由128个不同符号组成,其16个符号出现的概率为l/32,其余112个出现概率为1/224。信息源每秒发出1000个符号,且每个符号彼此独立。试计算该信息源的平均信息速率。 解:平均信息量 H= =6.405 bit/符号 平均信息速率
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值