衡量两个概率分布之间的差异性的指标

衡量两个概率分布之间的差异性的指标

总结一下衡量两个概率分布之间的差异性的指标,这里只是简单涉及到了KL散度、JS散度、交叉熵和Wasserstein距离

KL散度(Kullback–Leibler divergence)

KL散度又称为相对熵,信息散度,信息增益。
定义:KL散度是是两个概率分布 ? 和 ? 之间差别的非对称性的度量,KL散度是用来度量使用基于 ? 的编码来编码来自 ? 的样本平均所需的额外的位元数。 典型情况下,? 表示数据的真实分布,? 表示数据的理论分布,模型分布,或 ? 的近似分布。
定义式:
KL散度
因为对数函数是凸函数,所以KL散度的值为非负数。

注意
在这里插入图片描述

JS散度(Jensen-Shannon divergence)

定义:JS散度度量两个概率分布的相似度,基于KL散度的变体,解决了KL散度非对称的问题。一般地,JS散度是对称的,其取值是 0 到 1 之间。定义如下:
JS散度
注意
KL散度和JS散度度量的时候有一个问题:
如果两个分配 ?,? 离得很远,完全没有重叠的时候,那么KL散度值是没有意义的,而JS散度值是一个常数。这在学习算法中是比较致命的,这就意味这这一点的梯度为 0。梯度消失了。

交叉熵(Cross Entropy)

定义:在神经网络中,交叉熵可以作为损失函数,因为它可以衡量P和Q的相似性。
交叉熵
交叉熵和相对熵的关系:
交叉熵与相对熵

Wasserstein距离

定义
参考WGAN,真实数据与生成数据的概率分部距离
在这里插入图片描述

  • 9
    点赞
  • 64
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在比较两个曲线时,可以使用以下不同的衡量标准: 1. 峰值信噪比(PSNR):PSNR是一种用于比较图像或视频质量的标准,也可以用于比较两个曲线。它是通过计算两个曲线之间的均方误差(MSE)来计算的,MSE表示两个曲线之间差异程度。高PSNR值表示两个曲线之间差异性很小,而低PSNR值表示它们之间差异很大。 2. 平均绝对误差(MAE):MAE是另一种用于衡量两个曲线之间差异程度的标准。它是通过计算两个曲线之间的绝对误差的平均值来计算的。较小的MAE值表示两个曲线之间差异程度较小,而较大的MAE值则表示它们之间差异较大。 3. 相关系数(Correlation Coefficient):相关系数是一种用于衡量两个曲线之间相关程度的标准。它是通过计算两个曲线之间的相关性来计算的,其值介于-1和1之间。值为1表示两个曲线之间的相关程度非常高,值为-1表示它们之间的相关程度非常低,而值为0则表示它们之间没有相关性。 4. 交叉熵(Cross Entropy):交叉熵是一种用于衡量两个概率分布之间差异程度的标准。它可以用于比较两个曲线之间的相似性。较小的交叉熵值表示两个曲线之间的相似程度较高,而较大的交叉熵值则表示它们之间的相似程度较低。 以上是常用的比较两个曲线的衡量标准,可以根据实际需求选择适合的标准进行比较。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值