信息论基本

一件事情发生了,其信息量与该事件发生的概率相关
越不可能发生的事情发生了,其信息量就越大
信息量满足以下三点

  1. 非常可能发生的事情信息量较少
  2. 较不可能发生的事情信息量大
  3. 独立事件其信息量与执行的次数相关。例如抛硬币,抛两次,其信息量是抛一次的两倍
定义:信息量
I(x) = -logP(x)

P(x)区间位于0-1之间,信息量的单位是奈特(nats)一奈特是以1/e的概率观测到一个事件时获得的信息量

定义:信息熵

信息熵是所有信息量的期望,度量随机变量的不确定性,即

H(x) = - \sum^n_{i=1}P(x_i)*log(P(x_i))
定义:联合熵

对于多维随机变量,信息熵被称之为联合熵

H(X,Y)=-\sum_{i=1}^n\sum_{j=1}^mP(x_i,y_j)*log(P(x_i,y_j))
定义:条件熵

条件熵表示在已知随机变量 X 的条件下随机变量 Y 的不确定性。

H(Y|X)=-\sum_{i=1}^n\sum_{j=1}^mP(x_i,y_j)*log(P(y_j|x_i))

根据条件概率可得

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值