复习信息的统计度量

平均条件互信息

这个内容知道一下就行了:

I(X;yi)=Xp(xi;yj)logp(xi|yj)p(xi)

这是关于 j 的一个方程。

平均互信息

在我的文章关于熵的一个小证明里面,有这么一张图:
这里写图片描述
中间的类似交集的地方就是平均互信息。

计算方式:

I(X;Y)=H(X)+H(Y)H(X,Y)

它有一个极值性:

I(X;Y)min{H(X),H(Y)}

就是说它比 H(X) H(Y) 都小。

无记忆

无记忆就是独立的意思

拓展信源

一组信息源 S={0,1} ,对它进行2次拓展,生成了一个新的集合: {00,01,10,11} ,即类似取两个元素全排列;拓展信源有一个性质:

H(XN)=NH(X)

其中 N 表示N次拓展。

平稳信源

与时间起点无关,可平移。

信息量定义的一些梳理

P36 2.9 如有6行8列的棋型方格,若有2个质点 A B ,分别以等概率落入任一方格内,但 A,B 不能落入同一方格内。

平均自信息就是所谓的“熵”,问题一要求 A 落入任一个格的平均自信息;落入格子 X 的信息量由落入其中的概率决定:

I(X)=log(P(X))

现在我们有48个格子,落入每个格子都有一定的信息量,也有对应的概率,所以平均自信息就是一个数学期望的计算:

piI(Xi)

这就是我们之前定义好的信息熵(H(A)),第一题的要求是求出信息熵。

第二题:若已知 A 已入,求 B 落入的平均自信息量。

首先要明确一点,这是一个条件自信息,记成 I(B|A) ,概率是 p(B|A) ,用上题的方法求出平均条件自信量即可。这是一个条件熵H(B|A).

第三题:若 A,B 是可辨的,求 A,B 同时落入的平均自信息量。

这是要求联合熵 H(A,B) , 参照以前的公式即可。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值