信息量,熵,互信息,信道容量等相关概念

本文详细介绍了信息论中的关键概念,包括信息量(自信息)、熵(不确定度的度量)、联合熵、条件熵、互信息以及信道容量。通过定义、解释和例子,帮助读者理解这些概念如何衡量信息的不确定性和通信效率。重点强调了熵是随机变量不确定度的数学期望,并讨论了不同条件下熵的变化,以及互信息在描述两个随机变量间信息关联中的作用。
摘要由CSDN通过智能技术生成

读论文时,发现关于信息论一无所知的样子,基本概念十分混淆,下面是一些基本概念及对应的理解~

一. 信息量

1. 定义

信息量是对事件的不确定性的度量,单位bit。

定义:在随机变量X中,事件x的(自)信息量 I ( X = x ) I(X=x) I(X=x)简写为 I ( x ) = − l o g 2 p ( x ) I(x)=−log_2 p(x) I(x)=log2p(x),单位 b i t bit bit

可见,概率越小,信息量越大;概率越大,信息量越小。

2. 特性

(摘自曹雪红编著的《信息论与编码》)

  1. p ( x ) = 1 , I ( x ) = 0 p(x)=1,I(x)=0 p(x)=1,I(x)=0;

  2. p ( x ) = 0 , I ( x ) = ∞ p(x)=0,I(x)=\infty p(x)=0,I(x)=

  3. 若两个事件x,y同时出现,可以用联合概率 p ( x , y ) p(x,y) p(x,y)来表示他们同时发生的概率。这时,x,y同时出现这个联合事件(x,y)的自信息量为 I ( x , y ) = − l o g 2 p ( x , y ) I(x,y)=−log2p(x,y) I(x,y)=log2p(x,y);当x和y相互独立时 p ( x , y ) = p ( x ) p ( y ) p(x,y)=p(x)p(y) p(x,y)=p(x)p(y) ,那么就有 I ( x , y ) = I ( x ) + I ( y ) I(x,y)=I(x)+I(y) I(x,y)=I(x)+I(y)

  4. 若两个事件的出现不是独立的,而是有相互联系的,则可以用条件概率 p ( x ∣ y ) p(x|y) p(xy)来表示,即在事件y出现的概率下,事件x发生的条件概率,这样x的条件自信息量可以定义为 I ( x ∣ y ) = − l o g 2 p ( x ∣ y ) I(x∣y)=−log_2p(x∣y) I(xy)=log2p(xy).

    事件 x i x_i

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值