[通信原理]绪论2:信息量 × 信息熵

我们知道信息是一个抽象的概念,它既不是物质也不是能量。那么我们要如何对一个抽象的概念进行一个定量的研究呢?

信息量

1、信息的度量

通信的本质是传递信息,为了定量表征信息的度量,引入信息量的概念。消息中所含信息量与其不可预测性(不确定性)有关,因此可以概率来描述。消息所表达的事件越不可能发生,其信息量越大。

假设P(x)来表示消息发生的概率,I来表示消息中出现的信息量,则I的定义如下:

且满足3个基本性质:

对于若干个相互独立事件构成的消息,所含信息量等于各个独立事件信息量之和,如下:


2、信息量的定义

为了满足上述要求,定义如下公式为消息所含的信息量:

  • 以2为底,单位为比特(bit);
  • 以e为底,单位为奈特(nat),1nat=1.44bit;
  • 以10为底,单位为哈特(hat);
  • 以M为底,单位为M进制单位。

常采用以2为底的对数,即以bit作为信息量的单位。

【推广】对于等概M进制符号,每个码元包含log_{a}Mbit的信息量。


离散信息的信息熵

1、定义

对于离散的信源,假设其含有M个可能的取值,且概率如下:

于是,每个符号的所含信息量的平均值总信息量除以符号数),即平均信息量为:

通常称H信息熵,代表平均信息量。

【注意】当每个符号概率相等(均为1/M)时,信息熵的值最大。


2、关于误差

对于某一离散信源,假设其有0,1,2,3共4个符号组成,它们出现的概率分别为3/8,1/4,1/4,1/8,且每个符号的出现都是独立的。对于某条消息20101302010003……10210201(0出现23次,1出现14次,2出现13次,3出现7次,共57个字符),其信息量为:

  • 基于实际概率

I总=23log8/3+14log4+13log4+7log8=108(b)

算数平均信息量:

I=108/57=1.89(b/符号)

将上面两式子结合:

I=23/57·log8/3+14/57·log4+13/57·log4+7/57·log8=1.89(b/符号)

  • 基于理论概率

I=3/8·log8/3+1/4·log4+1/4·log4+1/8·log8=1.906(b/符号)

可以看出两种方法其结果有误差,而这种误差就是由实际概率和理论概率所造成的。并且此误差会随着消息序列中的符号数增加而减小。


通信系统主要性能指标

我们希望通信系统能快速(有效性)、准确(可靠性)的传递信息,但通常会牺牲有效性,来换取可靠性。

1、有效性

  • 码元传输速率

定义为每秒传输码元的个数,即波特率(又称传码率、符号率),单位为波特Baud,简写为B)。


  • 信息传输速率

定义为每秒传输的bit数(信息量),单位为bit/s,简记为b/sbps。通常又将其称之为传信率、比特率。

当二进制时,M=2,此时传码率与传信率数值上相等,但单位不同。


  • 频带利用率

定义为单位带宽内的传输速率。

通过频带利用率,将信道带宽B传输速度产生联系。


2、可靠性

误码率即错误码元所占总码元的比例,误信率即错误信息量占总信息量的比例。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值