一些基本概念

交叉熵:p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性。 NLP模型中,交叉熵就是衡量这个模型在测试集上的准确率。

 在给定 𝑝 的情况下如果 𝑞 𝑝 越接近,交叉熵越小;如果 𝑞 𝑝 越远,交叉熵就越大。

KL(Kullback-Leibler Divergence)散度:也叫KL距离或相对熵,是用概率分布 𝑞 来近似 𝑝 时所造成的信息损失量。

KL散度非负,KL(p,q)>=0。p=q时,KL(p,q)=0。两个分布越接近,KL散度越小;两个分布越远,KL散度越大。

JS(Jensen-Shannon Divergence)散度:  是一种对称的衡量两个分布相似度 的度量方式。
 

其中, 

 Wasserstein 距离:也用于衡量两个分布之间的距离。

 

 Wasserstein 距离可以理解为搬运土堆的最小工作量,也称 为推土机距离Earth-Mover’s DistanceEMD)。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值