深度有趣 | 06 变分自编码器

本文介绍了变分自编码器(VAE)的基本原理,它是一种生成式模型,通过学习数据的分布来生成新的样本。文章详细讲解了VAE与自编码器的区别,并使用Keras实现了一个简单的VAE模型,应用于MNIST数据集。通过编码器和解码器,VAE不仅能够重构数据,还能生成新的图像。文中提供了隐层表示的可视化,以及生成新样本的过程,展示了数字之间的过渡态。最后,文章提及如何将VAE应用到FashionMNIST数据集,并给出了相关参考资料和视频课程链接。
摘要由CSDN通过智能技术生成

简介

变分自编码器(Variational Autoencoder,VAE)是生成式模型(Generative Model)的一种,另一种常见的生成式模型是生成式对抗网络(Generative Adversarial Network,GAN)

这里我们介绍下VAE的原理,并用Keras实现

原理

我们经常会有这样的需求:根据很多个样本,学会生成新的样本

以MNIST为例,在看过几千张手写数字图片之后,我们能进行模仿,并生成一些类似的图片,这些图片在原始数据中并不存在,有一些变化但是看起来相似

换言之,需要学会数据x的分布,这样,根据数据的分布就能轻松地产生新样本

P ( X ) P(X) P(X)

但数据分布的估计不是件容易的事情,尤其是当数据量不足的时候

可以使用一个隐变量z,由z经过一个复杂的映射得到x,并且假设z服从高斯分布

x = f ( z ; θ ) x=f(z;\theta) x=f(z;θ)

因此只需要学习隐变量所服从高斯分布的参数,以及映射函数,即可得到原始数据的分布

为了学习隐变量所服从高斯分布的参数,需要得到z足够多的样本

然而z的样本并不能直接获得,因此还需要一个映射函数(条件概率分布),从已有的x样本中得到对应的z样本

z = Q ( z ∣ x ) z=Q(z|x) z=

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值