信息量 香农熵 交叉熵 KL散度

信息量(Amount of Information)

I ( x ) = l o g 2 ( 1 p ( x ) ) = − l o g 2 ( p ( x ) ) I(x) = log_2(\frac{1}{p(x)}) = -log_2(p(x)) I(x)=log2(p(x)1)=log2(p(x))
事件发生的可能性越小,信息量越大;
独立事件的信息量是可以相加的。

香农熵(Shannon Entropy)

一个概率分布信息量的数学期望
H ( p ) = ∑ p i I i p = ∑ p i l o g 2 ( 1 p i ) = − ∑ p i l o g 2 ( p i ) H(p) = \sum p_i I_i^p = \sum p_i log_2(\frac{1}{p_i}) = - \sum p_i log_2(p_i) H(p)=piIip=pilog2(pi1)=pilog2(pi)
概率分布越集中,香农熵越小

交叉熵(Cross Entropy)

H ( p , q ) = ∑ p i I i q = − ∑ p i l o g 2 ( q i ) H(p, q) = \sum p_i I_i^q = - \sum p_i log_2(q_i) H(p,q)=piIiq=pilog2(qi)
可以理解为给定一个估计的概率分布q,计算在真实的概率分布p下,估计的概率分布信息量的数学期望。

KL散度(Kullback-Leibler Divergence)

描述两个概率分布的区别的度量
D ( p ∣ ∣ q ) = H ( p , q ) − H ( p ) = ∑ p i I i q − ∑ p i I i p = ∑ p i l o g 2 ( p i ) − ∑ p i l o g 2 ( q i ) = ∑ p i l o g 2 ( p i q i ) D(p||q) = H(p, q) - H(p) = \sum p_i I_i^q - \sum p_i I_i^p = \sum p_i log_2(p_i) - \sum p_i log_2(q_i) = \sum p_i log_2(\frac{p_i}{q_i}) D(p∣∣q)=H(p,q)H(p)=piIiqpiIip=pilog2(pi)pilog2(qi)=pilog2(qipi)
D ( p ∣ ∣ q ) ≥ 0 D(p||q) \ge 0 D(p∣∣q)0 两个概率分布相同时取等
D ( p ∣ ∣ q ) ≠ D ( q ∣ ∣ p ) D(p||q) \neq D(q||p) D(p∣∣q)=D(q∣∣p)
∇ θ D ( p ∣ ∣ q θ ) = ∇ θ H ( p , q θ ) − ∇ θ H ( p ) = ∇ θ H ( p , q θ ) \nabla_\theta D(p||q_\theta) = \nabla_\theta H(p, q_\theta) - \nabla_\theta H(p) = \nabla_\theta H(p, q_\theta) θD(p∣∣qθ)=θH(p,qθ)θH(p)=θH(p,qθ)

参考视频 https://www.bilibili.com/video/BV1JY411q72n/?spm_id_from=333.337.search-card.all.click&vd_source=a850407f64eee9803c84bdb6f1734c80

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值