信息熵,KL散度和交叉熵

总结一些在机器学习中常用的信息论的概念

  1. 信息熵
    信息论的基本想法是一个不太可能的事件居然发生了,要比一个非常可能的事件发生,能提供更多的信息,基于这种思想设计了信息熵(信息量):
    对于事件 x i x_i xi的信息熵有如下定义:
    在这里插入图片描述
    对于随机变量 X X X计算其信息熵有:
    在这里插入图片描述
    我们可以用香农熵(Shannon entropy)来对整个概率分布中的不确定性总量进行量化,换言之,一个分布的香农熵是指遵循这个分布的事件所产生的期望信息总量。
  2. KL散度(相对熵)
    如果我们对于同一个随机变量 x 有两个单独的概率分布 P (x) 和 Q(x),我们可以使用 KL 散度(Kullback-Leibler (KL) divergence)来衡量这两个分布的差异:
    在这里插入图片描述
    要注意的是KL散度是不对称的,即 D K L ( P ∣ ∣ Q ) D_{KL}(P||Q) DKL(PQ) 不等于 D K L ( Q ∣ ∣ P ) D_{KL}(Q||P) DKL(QP)
  3. 交叉熵
    交叉熵和KL散度联系很紧密,H(P,Q)=H( P )+ D K L D_{KL} DKL(P||Q)
    其定义为:
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值