[信息论与编码]离散信源及其信息测度(2)

2021/11/23 from Xwhite

离散无记忆信源的扩展信源

信源模型

信源模型这里我们在上一篇文章已经叙述过了,在N次扩展哪里

信息熵

由于离散无记忆信源的扩展信源序列中前后符号的出现相互独立,彼此无关,因此有
请添加图片描述

符号序列中各符号取自同一个信源空间[X,P],故有
请添加图片描述

所以离散无记忆信源扩展信源的熵为H(XN)=NH(X)

离散无记忆信源扩展信源的熵和N长序列变量独立同分布的信源熵相同。

例题
请添加图片描述
请添加图片描述
例题
请添加图片描述
请添加图片描述

第二问,每秒传输30帧,而一帧又是2.1x106bit,所以信息率就是 帧/sec * bit/帧
请添加图片描述

第三问,提供的信息量就是平均信息量=信源熵
请添加图片描述
请添加图片描述

离散平稳信源及极限熵(非重点)

离散平稳信源

信源输出的随机序列中每个随机变量Xi都是取值离散的离散型随机变量,且随机变量的各维概率分布都与时间起点无关(平稳)。
请添加图片描述
N维平稳要在N-1维平稳的前提下发生。

离散平稳信源的特点
请添加图片描述
这里说一下,1这个式子时利用条件概率公式 用2式 除以 3式得来的

极限熵

离散平稳信源的三种信息测度方式(考虑信源的记忆性)
请添加图片描述
例题
请添加图片描述请添加图片描述

信息冗余度(了解)

信源的相关性与冗余度

  • 信源的相关性 信源输出符号之间的依赖程度
    熟记几个离散平稳信源的符号及其熵(设信源有q各符号)
    请添加图片描述
  • 冗余度:也称多余度或剩余度,表示给定信源在实际发出消息时所包含的多余信息
    来自两方面 一是信源符号间的相关性,二是信源符号分布的不均匀性
    请添加图片描述
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值