KL散度

Kullback-Leibler散度(KL散度)是衡量两个概率分布差异的非对称性度量,常用于信息理论、编码、机器学习中的优化算法如EM算法。它在连续和离散情况下有不同的计算公式,当理论分布完全匹配真实分布时,KL散度为0。在深度学习中,其性质被用于梯度下降,避免了梯度消失问题。相对熵的不对称性可能导致不同的下降速度,但交叉熵损失函数解决了这一问题。
摘要由CSDN通过智能技术生成

相对熵(relative entropy),又被称为Kullback-Leibler散度(Kullback-Leibler divergence)或信息散度(information divergence),是两个概率分布(probability distribution)间差异的非对称性度量。
在信息理论中,相对熵等价于两个概率分布的信息熵(Shannon entropy)的差值

在信息理论中,相对熵是用来度量使用基于 的编码来编码来自 的样本平均所需的额外的比特个数。

相对熵是一些优化算法,例如最大期望算法(Expectation-Maximization algorithm, EM)的损失函数。此时参与计算的一个概率分布为真实分布,另一个为理论(拟合)分布,相对熵表示使用理论分布拟合真实分布时产生的信息损耗

离散型
D K L ( p ∥ q ) = ∑ i = 1 N [ p ( x i ) log ⁡ p ( x i ) − p ( x i ) log ⁡ q ( x i ) ] D_{K L}(p \| q)=\sum_{i=1}^{N}\left[p\left(x_{i}\right) \log p\left(x_{i}\right)-p\left(x_{i}\right) \log q\left(x_{i}\right)\right] DKL(pq)=i=1N[p(xi)logp(xi

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值