机器学习:VAE(Variational Autoencoder) 模型

VAE 模型是一种有趣的生成模型,与GAN相比,VAE 有更加完备的数学理论(引入了隐变量),理论推导更加显性,训练相对来说更加容易。

VAE 可以从神经网络的角度或者概率图模型的角度来解释。

VAE 全名叫 变分自编码器,是从之前的 auto-encoder 演变过来的,auto-encoder 也就是自编码器,自编码器,顾名思义,就是可以自己对自己进行编码,重构。所以 AE 模型一般都由两部分的网络构成,一部分称为 encoder, 从一个高维的输入映射到一个低维的隐变量上,另外一部分称为 decoder, 从低维的隐变量再映射回高维的输入:

VAE模型

如上图所示,encoder 网络中的参数为 θ \theta θ, decoder 中网络中的参数为 ϕ \phi ϕ θ \theta θ 就是让网络从 x x x z z z 的映射,而 ϕ \phi ϕ 可以让网络完成从 z z z x x x 的重构,encoder 可以表示成 q θ ( z ∣ x ) q_{\theta}(z|x) qθ(zx),decoder 可以表示成 p ϕ ( x ∣ z ) p_{\phi}(x|z) pϕ(xz),基于这个,可以构造如下的损失函数:

l i ( θ , ϕ ) = − E z ∼ q θ ( z ∣ x i ) [ l o g ( p ϕ ( x i ∣ z ) ) ] + K L ( q θ ( z ∣ x i ) ∣ ∣ p ( z ) ) l_{i}(\theta, \phi) = -E_{z \sim q_{\theta}(z|x_i)} [log(p_{\phi}(x_i|z))] + KL( q_{\theta}(z|x_i)||p(z)) li(θ,ϕ)=Ezqθ(zxi)[log(pϕ(xiz))]+KL(qθ(zxi)p(z))

上面的第一部分,可以看做是重建 loss,就是从 x ∼ z ∼ x x \sim z \sim x xzx 的这样一个过程,可以表示成上面的熵的形式,也可以表示成最小二乘的形式,这个取决于 x x x本身的分布。后面的 KL 可以看做是正则项, q θ ( z ∣ x ) q_{\theta}(z|x) qθ(zx) 可以看成是根据 x x x推导出来的 z z z的一个后验分布, p ( z ) p(z) p(z)可以看成是 z z z的一个先验分布,我们希望这两个的分布尽可能的拟合,所以这一点是VAE与GAN的最大不同之处,VAE对隐变量 z z z是有一个假设的,而GAN里面并没有这种假设。 一般来说, p ( z ) p(z) p(z)都假设是均值为0,方差为1的高斯分布 N ( 0 , 1 ) \mathcal{N}(0, 1) N(0,1)

如果没有 KL 项,那VAE就退化成一个普通的AE模型,无法做生成,VAE中的隐变量是一个分布,或者说近似高斯的分布,通过对这个概率分布采样,然后再通过decoder网络,VAE可以生成不同的数据,这样VAE模型也可以被称为生成模型。

下面看看每个部分的代码实现:

如果只是基于 MLP 的VAE,就是普通的全连接网络:

import tensorflow as tf
from tensorflow.contrib import layers

## encoder 模块
def fc_encoder(x, latent_dim, activation=None):
    e = layers.fully_connected(x, 500, scope='fc-01')
    e = layers.fully_connected(e, 200, scope='fc-02')
    output = layers.fully_connected(e, 2 * latent_dim, activation_fn=activation,
                                    scope='fc-final')

    return output

## decoder 模块
def fc_decoder(z, observation_dim, activation=tf.sigmoid):
    x = layers.fully_connected(z, 200, scope='fc-01')
    x = layers.fully_connected(x, 500, scope='fc-02')
    output = layers.fully_connected(x, observation_dim, activation_fn=activation,
                                    scope='fc-final')
    return output

关于这几个 loss 的计算:

   ## KL loss
    def _kl_diagnormal_stdnormal(mu, log_var):
        var = tf.exp(log_var)
        kl = 0.5 * tf.reduce_sum(tf.square(mu) + var - 1. - log_var)
        return kl
   
   ## 基于高斯分布的重建loss
    def gaussian_log_likelihood(targets, mean, std):
        se = 0.5 * tf.reduce_sum(tf.square(targets - mean)) / (2*tf.square(std)) + tf.log(std)
        return se
        
   ## 基于伯努利分布的重建loss
    def bernoulli_log_likelihood(targets, outputs, eps=1e-8):
        log_like = -tf.reduce_sum(targets * tf.log(outputs + eps)
                                  + (1. - targets) * tf.log((1. - outputs) + eps))
        return log_like

可以看到,重建loss,如果是高斯分布,就是最小二乘,如果是伯努利分布,就是交叉熵,关于高斯分布的 KL loss 的详细推导,可以看下面这个帖子:

https://zhuanlan.zhihu.com/p/22464760

过程很复杂,结果很简单。如果有两个高斯分布 N 1 ∼ ( μ 1 , σ 1 2 ) \mathcal{N}_1 \sim(\mu_{1}, \sigma_{1}^{2}) N1(μ1,σ12) N 2 ∼ ( μ 2 , σ 2 2 ) \mathcal{N}_2 \sim(\mu_{2}, \sigma_{2}^{2}) N2(μ2,σ22),最后这两个分布的 KL 散度是:

K L ( N 1 ∣ ∣ N 2 ) = l o g ( σ 2 σ 1 ) + σ 1 2 + ( μ 1 − μ 2 ) 2 2 σ 2 2 − 1 2 KL(N_1 || N_2) = log(\frac{\sigma_{2}}{\sigma_{1}}) + \frac{\sigma_{1}^{2} + (\mu_{1} - \mu_{2})^{2}}{2\sigma_{2}^{2}} - \frac{1}{2} KL(N1N2)=log(σ1σ2)+2σ22σ12+(μ1μ2)221

VAE 中,我们已经假设 z z z 的先验分布是 N ( 0 , 1 ) \mathcal{N}(0, 1) N(0,1),所以 μ 2 = 0 , σ 2 2 = 1 \mu_{2} = 0, \sigma_{2}^{2} =1 μ2=0,σ22=1,代入上面的公式,可以得到:

l o s s K L = − l o g ( σ 1 ) + σ 1 2 + μ 1 2 2 − 1 2 loss_{KL}= -log({\sigma_{1}}) + \frac{\sigma_{1}^{2} + \mu_{1}^{2}}{2} - \frac{1}{2} lossKL=log(σ1)+2σ12+μ1221

参考:

https://jaan.io/what-is-variational-autoencoder-vae-tutorial/
https://github.com/wuga214/IMPLEMENTATION_Variational-Auto-Encoder

  • 27
    点赞
  • 132
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值