kl散度的理解_变分自编码器KL散度的Latent Loss推导

【搬运自同人博客】变分自编码器Latent Loss推导​blog.csdn.net找中文资料不太好找,原论文里面有简略的推导,我稍微把论文里略过的补充了一下,对有需要的同学仅供参考。都是从pdf截图,因为这是以前在word里写好的,就不再重写一遍了。参考文献:Auto-Encoding Variational Bayes,authors:Diederik P Kingma, Max Wellin...
摘要由CSDN通过智能技术生成

【搬运自同人博客】

变分自编码器Latent Loss推导​blog.csdn.net
cf91c29edfcfd312d486845d0a626b48.png

找中文资料不太好找,原论文里面有简略的推导,我稍微把论文里略过的补充了一下,对有需要的同学仅供参考。

都是从pdf截图,因为这是以前在word里写好的,就不再重写一遍了。

参考文献:Auto-Encoding Variational Bayes,authors:Diederik P Kingma, Max Welling

一、问题来源

在看Hand on ML with Sklearn and TensorFlow书,变分自编码器这一节时候,看到代码里有一个Latent Loss,细节上没有解释,我搜了很多中文资料也没找到,最后花了一些时间差不过搞清楚了,不敢保证下面的证明没有纰漏,分享给有需要的同学。

二、问题描述

变分自编码器的损失函数有两个,简单来说,reconstruction loss就是输出和输入的重构误差(比如二范数,印象中见过其他类型的衡量标准。不过这个好理解,本文不讨论这个),还有一个就是latent loss,其TensorFlow代码公式如下:

latent_loss <
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值