信息论知识点重点整理

信息论知识点重点整理

第二章 熵、相对熵和互信息

  • 链式法则
  • 马尔科夫链
  • 数据处理不等式
  • Fano不等式

第三章 渐进均分性

  • 典型集及其相关性质

第四章 随机过程的熵率

  • 马尔可夫过程的熵率

第五章 数据压缩

  • Kraft不等式
  • 最优码、郝夫曼码、香农码、Shannon-Fano-Elias编码

第七章 信道容量

  • 信道编码定理(香农第二定理)
  • 反馈信道:可以基于更多信息进行编码
  • 信源信道分离定理

第八章 微分熵

  • 微分熵可以小于零,不代表信息度量的内涵

  • 连续随机变量的 AEP

  • 多元正态分布的熵, ∣ K ∣ |K| K 为协方差矩阵的行列式值

    $ h(φ) = \frac{1}{2} log(2 π e σ^2) $ bits

    h ( X 1 , X 2 , … , X n ) = 1 2 l o g ( 2 π e ) n ∣ K ∣ h(X1,X2,…,Xn) = \frac{1}{2}log(2πe)^n|K| h(X1,X2,,Xn)=21log(2πe)nK bits

  • 相对熵和互信息

  • 微分熵、相对熵和互信息的性质

    h ( a X ) = h ( X ) + l o g ∣ a ∣ h(aX) = h(X)+log|a| h(aX)=h(X)+loga => 连续变量的拉伸会改变熵

    h ( A X ) = h ( X ) + l o g ∣ d e t A ∣ h(AX)=h(X)+log|det A| h(AX)=h(X)+logdetA => A为X的变换矩阵

  • [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-AZiBkFOI-1599893863522)(C:\Users\Lenovo\Desktop\信息论知识点重点整理.assets\image-20200902104731414.png)]

第九章 高斯信道

  • 有功率限制的信道容量
  • 带宽有限信道
  • 并联高斯信道,注水法(Water Filling)
  • 反馈对信道容量的影响

第十章 率失真理论

  • 信息率失真函数与信道容量的比较
  • 高斯信源的率失真函数
  • 并联高斯信源的率失真,反注水法
  • 香农第三定理,率失真函数的可达性
  • 失真典型序列
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

邵政道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值