信息论学习笔记(二):离散无噪声系统

前言

今天我们继续啃信息论之父香农发布的论文A Mathematical Theory of Communication(通信中的数学理论)

请添加图片描述

离散信道

离散信道的容量C的定义如下:
在这里插入图片描述
N(T)表示时间为T的信号数目

如果出现信号 S1,…,Sn 的所有序列,这些符号的持续时间为 t1, …,tn 。那么如何计算信道容量?

首先当然是计算S1,…,Sn 的所有序列数的和, 也就是N(t)在这里插入图片描述

N(t) is then asymptotic for large t to Xt0 where X0 is the largest real solution of the characteristic equation, 这里奇妙地给出了一个特征方程, 大佬并没有给出证明。。。于是最大的N(t) -> Xt0, 我们可以解出该方程最大实数解X0:
在这里插入图片描述
至于这是怎么推导的呢? 首先我们要知道差分方程的特征方程的求法规律:
假设我们存在一个差分方程Y(x + 1) - aY(x) = 0
假设Y(0)已知, 我们如何解这个方程呢? 下面给出过程:
Y(1) = aY(0)
Y(2) = a*a*Y(0)
Y(3) = a*a*a*Y(0)

Y(X) = a ^x * Y(0)
令Y(0) = C
于是差分方程的通解为Y(X) = C*a^x
因此差分方程的解是一种指数形式, 于是我们就可以得出上式了:
在这里插入图片描述

因此根据离散信道的容量C的定义可化简为:
在这里插入图片描述

离散信源

在电报通信中,要传送的消息由字符序列组成。而这些字符序列中的字符出现的频率是不一样的, 就像E的出现频率要高于Q。我们就可以通过一些特殊方法进行处理来节省通信容量和时间。

何为离散? 就是一堆不连续的变量,在我看来更像是一种随机过程,正如香农所说:
Conversely, any stochastic process which produces a discrete sequence of symbols chosen from a finite set may be considered a discrete source.
离散符号序列是从有限集合中选出的随机变量, 就是离散信源.

接下来香农开始给我们展示了几种案例的马尔科夫过程, 这里就不记录啦!
在这里插入图片描述

信息熵的定义

因此, 由于离散信源是随机的过程, 我们能不能定义一个量,度量这样一个过程“生成”多少信息?甚至度量它以什么样的速率生成信息?

于是就定义了信息熵H(p1, p2, …, pN), 并能够满足一下三条假定:

  • H 关于 Pi 连续
  • 如果所有Pi相等, 则Pi = 1 / n
  • 如果一项选择被分解为两个连续选择,则原来的 H 应当是各个 H 值的加权和:
    在这里插入图片描述

以下一图直观地表示了这一等价关系:
在这里插入图片描述

那么
满足以上假定的H就可以这样定义:
在这里插入图片描述
假设存在随机变量X, 我们将H(X)记为它的熵.

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值