KL散度-Entropy-JS散度-W距离

https://zhuanlan.zhihu.com/p/95687720

KL Divergence

用于衡量两种分布相似程度的统计量,越小,表示两种概率分布越接近。

所谓KL散度,是指当某分布q(x)被用于近似p(x)时的信息损失。

也就是说,q(x)能在多大程度上表达p(x)所包含的信息,KL散度越大,表达效果越差。

KL散度就是为了度量这种损失而被提出的。

若我们使用分布q来表示分布p,那么信息熵的损失如下

信息熵损失

可将该式写作期望的形式

稍加变形,称为定义中的形式

 

 

Entropy

如果式中的log以2为底的话,我们可以将这个式子解释为:要花费至少多少位的编码来表示此概率分布。从此式也可以看出,信息熵的本质是一种期望。

JS divergence

JS 散度度量了两个概率分布的相似度,基于 KL 散度的变体,解决了 KL 散度非对称的问题。一般地,JS 散度是对称的,其取值是 0 到 1 之间。

定义如下:

KL 散度和 JS 散度度量的时候有一个问题:

如果两个分配 P,Q 离得很远,完全没有重叠的时候,那么 KL 散度值是没有意义的,而 JS 散度值是一个常数,这就意味这一点的梯度为 0。

JS距离在两个数据集近似没有重叠的情况下,等于常数Log2,所以出现梯度消失的问题。

Wasserstein距离

最大的好处就是不用管数据分布有没有重叠

优点:

 

 

 

 

 

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值