熵 交叉熵 相对熵

1.熵(Shann Entropy)

熵又叫信息熵,香农熵,反映了一个系统的有序(无序)的程度。整个世界都是倾向于从有序到无序,从稳态到混乱,熵值从低到高。设随机变量$X$的取值为$X={x_0,x_1,x_2,......x_n}$,对应概率表达为$p(X=x_i)$,则$X$的熵可表示为:

 

$H(X) = \sum_{i=1}^np(x_i)logp(x_i)$

 

2.相对熵(Relative Entropy)

又叫互熵,KL散度,用来描述两个随机变量之间的距离(不相似性)。设$p(x)$,$q(x)$为$X$取值的两个概率分布,则二者的相对熵可表述为:

$D(p||q) =\sum_{i=1}^np(x)log\frac{p(x)}{q(x)}$

KL 散度是用来度量使用基于 Q 的编码来编码来自 P 的样本平均所需的额外的位元数。典型情况下,P 表示数据的真实分布,Q 表示数据的理论分布,模型分布,或 P 的近似分布。

注意:

  • KL散度并不对称 $KL(p||q) \neq KL(q||p)$
  • KL散度非负

简单实现:

from functools import reduce

import operator

import math

def kl(p, q):

  return reduce(operator.add, map(lambda x, y: x*math.log(x/y), p, q))

 

3.交叉熵

衡量$p$与$q$之间的相似程度,所以常用在损失函数中

$H(p,q) =\sum_{i=1}^np(x)logq(x)$

 

4.三者关系:

 

转载于:https://www.cnblogs.com/punkcure/p/7840632.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值