深度学习之KL散度

前言

最近在看GAN相关的文章,经常提到KL散度这一概念,为了加深印象以及方便复习,特意写在博客上。

KL散度用来做什么?

KL散度的用途:比较两个概率分布的接近程度。
在统计应用中,我们经常需要用一个简单的,近似的概率分布 f f ∗ 来描述
观察数据 DD或者另一个复杂的概率分布 f f 。这个时候,我们需要一个量来衡量我们选择的近似分布 f 相比原分布 f f 究竟损失了多少信息量,这就是KL散度起作用的地方。

为了更好的理解KL散度,在这里首先抛出熵的概念。在信息论这门学科中,一个很重要的目标就是量化描述数据中含有多少信息。 为此,提出了熵的概念,记作H,一个概率分布所对应的熵表达如下:

H = Ni=1p(
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值