《通信原理》(2):信息量及平均信息量

前言

在上篇文章中我们介绍了下通信系统,按照信道中传输的是模拟信号还是数字信号,通信系统可分为模拟通信系统和数字通信系统;此外我们还介绍了广播、点-点、单工通信、半双工通信、全双工通信、并行传输、串行传输这些通信方式。在这篇文章里,

上文链接:《通信原理》(1):初识通信原理

1.信息的度量:信息量

通信的目的在于传输信息,传输信息的多少可用“信息量”来进行衡量,信息量是对消息中“不确定性”的度量。
我们先来看个例子:

中国男子乒乓球队获得冠军
中国男子足球队获得冠军

显然,这两条信息发生的概率完全不同,一个接近1,一个几乎为0(狗头保命),那么哪条信息包含的信息量大呢?答案是第二条
消息中信息量与消息发生的概率相关,消息出现的概率越小,消息中包含的信息量就越大,且概率为零时(不可能发生事件)信息量为无穷大,概率为1时(必然事件)信息量为0。所以大家知道为什么第二条信息量更大了吧

现在我们用函数的方式来表示信息量I与消息出现概率P(x)之间的关系:
在这里插入图片描述

消息出现的概率越小,所含信息量越大,反之信息量越小:
在这里插入图片描述
若干个互相独立事件构成的消息,其所含信息量等于各独立事件信息量的和
在这里插入图片描述
信息量I与消息出现的概率P(x)之间的关系为:
在这里插入图片描述
其中,信息量的单位与对数底数a有关:

  • a=2时, 信息量的单位为比特(bit)
  • a=e时, 信息量的单位为奈特(nit)
  • a=10时,信息量的单位为叫哈特莱(hartley)

来看一道例题:
:设不同进制离散信源,试计算二进制符号等概率(以相等的概率发送数字0或1)和多进制(M进制)等概率时每个符号的信息量

在这里插入图片描述
由此可以得到:

  • 传送等概率的二进制波形之一的信息量为1比特
  • 传送等概率的四进制波形之一的信息量为2比特
  • 传送等概率的八进制波形之一的信息量为3比特

2.平均信息量

平均信息量等于各个符号信息量乘以各自出现的概率之和,描述每个符号所含信息量的统计平均值

设离散信源是一个由n个符号组成的符号集,每个符号xi(i=1,2,…,n)出现概率为P(xi),且ΣP(xi)=1, 则平均信息量为:
在这里插入图片描述
与热力学中的熵形式一样,所以称它为信息源的熵,单位为bit/符号

当离散信息源中的每个符号等概率出现时,而且各符号的出现为统计独立时,该信息源的信息量最大,此时最大熵(平均信息量)为:
在这里插入图片描述
下面来看两道例题:
例1:设由5个符号组成的信息源,其相应概率为
在这里插入图片描述
试求信源的平均信息量

解:利用平均信息量公式得:
在这里插入图片描述
如果5个符号等概率出现时,平均信息量为:
在这里插入图片描述
可以看到平均信息量的确更大

例2:设一离散信源由0, 1, 2, 3四个符号组成,它们出现的概率分别为3/8, 1/4, 1/4, 1/8,且每个符号的出现都是独立的。试求某消息201020130213001203210100321010023102002010312032100120210的信息量以及每个符号的平均信息量

解:
方法1:求消息中每个符号的个数,然后再乘以其信息量,最后求和
在这里插入图片描述
很明显,当符号数目巨大时,这种方法并不合适,一个一个的数工作量太大了

方法2:先求平均信息量,再乘以符号总数
在这里插入图片描述
可见,两种算法结果有一定误差,但当消息很长时,用熵的概念来计算比较方便,随着消息序列长度的增加,两种计算误差将趋于零

3.连续信号的信息量和信源熵

对于连续消息,信息论中有一个重要结论,就是任何形式的待传信息都可以用二进制形式表示而不失主要内容
抽样定理告诉我们:一个频带受限的连续信号,可以用每秒一定数目的抽
样值代替,而每个抽样值可以用若干个二进制脉冲序列来表示。
因此,以上信息量的定义和计算同样适用于连续信号

信源熵(平均信息量):
在这里插入图片描述

  • 7
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值