联合熵、条件熵、互信息、相对熵、交叉熵的详解

本篇博客,我们将介绍联合熵、条件熵、互信息、相对熵、交叉熵,如果对熵的概念还有不清楚的朋友,可以看一下这一篇博客,信息熵是什么呢?

https://blog.csdn.net/ding_programmer/article/details/89785319

联合熵

两个离散随机变量 X 和 Y 的联合概率分布函数为p(x,y) ,则联合熵 (Joint Entropy) 为:

 

H(X,Y)=- \sum_{x\in X}\ \sum_{y \in Y}\rm p(x,y)\mathrm{log}p(x,y)

联合熵实际上就是描述一对随机变量平均所需要的信息熵。

 

条件熵

条件熵 (Conditional Entropy)  H(Y|X) 表示在已知随机变量 X的条件下随机变量 Y 的不确定性。

 

H(Y|X)=\sum_{x\in X}\ \sum_{y\in Y}\rm p(x,y)logp(y|x)

条件熵和联合熵之间的关系 :

 

H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)

 

互信息

两个离散随机变量 X和 Y互信息 (Mutual Information) 为:

I(X,Y)=H(X)+H(Y)-H(X,Y)    或者     I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)

上述公式的推导可以从Vnn 图中看出来

比较有意思的是;

H(X)=H(X)-H(X|X)=I(X,X)

这就是为什么熵叫作自信息了 ,另一方面 说明了 两个完全相互依赖的变量之间的互信息并不是一个常量,而是取决于它们的熵。由此可见 互信息 其实是 度量两个随机变量之间的统计相关性。

 

相对熵

相对熵 (Relative Entropy) 也称 KL 距离,设  p(x),\ q(x) 是离散随机变量 X 的两个概率分布,则 p(x)q(x)  的相对熵是

D(p || q) =\sum_{x \in X}\rm p(x) log{\frac{p(x)}{q(x)}}

 

其中 \rm 0log(0/q)=0,\ plog(p/0)= \infty

 

交叉熵

交叉熵是用来衡量估计模型于真实概率分布之间差异情况的。如果一个随机变量 X\sim p(x),q(x)为用于近似p(x)的概率分布,那么 X 和模型 q(x)之间的交叉熵 (cross entropy) 可以定义为

 

H(X,q)=H(x)+D(p||q) = -\sum_x \rm p(x) logq(x)

可以看出 估计模型 q(x)  和 真实模型  p(x) 之间的差异 。

 

 

 

 

 

 

  • 5
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值