信息的度量和作用

1.信息熵:一条信息的信息量与其不确定性有着直接的关系。(变量的不确定性越大,熵也就越大)

在这里插入图片描述

2.信息的作用:信息是消除系统不确定性的唯一办法(在没有获得任何信息前,一个系统就像是一个黑盒子,引入信息,就可以了解黑盒子系统的内部结构),信息和信号处理的应用都是一个消除不确定性的过程(知道的信息越多,随机事件的不确定性就越小)

3.互信息(相关性):互信息为两个随机事件“相关性”的量化度量

在这里插入图片描述

4.相对熵

(1)对于两个完全相同的函数,它们的相对熵为零
(2)相对熵越大,两个函数差异越大;反之,相对熵越小,两个函数差异越小
(3)对于概率分布或者概率密度函数,如果取值均大于零,相对熵可以度量两个随机分布的差异

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值