信息论 讲义(1)

一.自信息与互信息
定义2.1:随机事件的自信息量定义为该事件发生概率的对数的负值,即I(x) = -logp(x)

注:通常取对数的底为2,信息量的单位为比特。当取对数的底为2时,2常省略。
若取对数的底为e,自信息量的单位为奈特。常用于理论推导和连续信源
工程上常用10,则其单位为哈莱特
若取以r为底的对数,I(x)=-logr p(x) r进制单位
1r进制单位 = log2 r 进制单位

定义2.2:一个事件y关于另一个事件x的信息定义为互信息,用I(x;y)表示
I(x;y)=I(x) - I(x|y) = -logp(x)+logp(x|y)=logp(x|y)/p(x)

理解:一个概率为1的事件的自信息量是0,一个概率接近0的事件的自信息量是接近无穷的。也就是说自信息量反应的是事件的不确定度。自信息量越大也即不确定度越大,发生概率越小。而互信息是在已知一个y事件后所消除的关于x事件的不确定性,是一个被消除的量。也就是说,互信息量越大,这个事件对确定x事件就越有效。

定义2.3:随机变量X的每一个可能取值的自信息I(x)的统计平均值定义为随机变量X的平均自信息量 也即H(X)=-Σp(xi)logp(xi)。平均自信息量又可称为信息熵

二.熵函数:信息熵H(x)是随机变量X的概率分布的函数,所以又成为熵函数。如果把概率分布p(xi),i=1,2…q,记为p1,p2..pq,则熵函数又可写成概率矢量p = (p1,p2…pq)的函数形式,记为H(p)。
H(p) =-Σpilogpi=H(p1,p2…,pq) =H(X)

性质&

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值