KL散度的含义

熵的定义

H = − ∑ i = 1 N p ( x i ) l o g ( p ( x i ) ) H=-\sum_{i=1}^Np(x_i)log(p(x_i)) H=i=1Np(xi)log(p(xi))

KL散度实际含义

D = ∑ i = 1 N p ( x i ) l o g 2 ( q ( x i ) p ( x i ) ) = ∑ i = 1 N p ( x i ) ∗ ( l o g 2 ( q ( x i ) ) − l o g 2 ( p ( x i ) ) ) D=\sum_{i=1}^Np(x_i)log_2(\frac{q(x_i)}{p(x_i)})=\sum_{i=1}^Np(x_i)*(log_2(q(x_i))-log_2(p(x_i))) D=i=1Np(xi)log2(p(xi)q(xi))=i=1Np(xi)(log2(q(xi))log2(p(xi)))

实际用途

在很多情况下,我们没有办法计算出来真正的概率,我们只能尽可能的去拟合。在上式子中, p ( x i ) p(x_i) p(xi)是真实的概率, q ( x i ) q(x_i) q(xi)是我们的拟合概率的函数,最后可以用这个作为loss来优化

参考链接

可能有用的地方

给定两组数据
p : p 1 , p 2 , p 3 , . . . p n p:p_1,p_2,p_3,...p_n p:p1,p2,p3,...pn,且p是真实数据
q : q 1 , q 2 , q 3 , . . . q n q:q_1,q_2,q_3,...q_n q:q1,q2,q3,...qn
可以用这个loss: l o s s = ∑ i = 0 n ( p i − q i ) 2 ∗ l o g 2 ( q i 2 p i 2 ) loss=\sum_{i=0}^n(p_i-q_i)^2*log_2(\frac{q_i^2}{p_i^2}) loss=i=0n(piqi)2log2(pi2qi2)

我们可以发现有这么一个性质,当 p i p_i pi越靠近 q i q_i qi时候,loss越小,反之越大

可能的延伸

把KL散度中的概率表示加入进去

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值