【阅读笔记】Adversarially Regularized Autoencoders

Adversarially Regularized Autoencoders

Kim Y, Zhang K, Rush A M, et al. Adversarially regularized autoencoders[J]. arXiv preprint arXiv:1706.04223, 2017.
GitHub: https://github.com/jakezhaojb/ARAE
adversarially regularized autoencoder (ARAE)

Abstract

Deep latent variable models (也就是VAE、GAN这种由随机变量作种子的模型)比较方便生成连续的样本。当把他们运用在例如文本、离散图片等离散结构上时,将会遇到很大挑战。本文提出了一个灵活的方法来训练 deep latent variable models of discrete structures。

Background and Notation

Discrete Autoencoder

就是把离散序列 encoder 之后再 decoder,通过 softmax 来进行离散
L r e c ( ϕ , ψ ) = − l o g   p ψ ( x ∣ e n c ϕ ( x ) ) L_{rec}(\phi,\psi)=-log~p_{\psi}(x|enc_{\phi}(x)) Lrec(ϕ,ψ)=log pψ(xencϕ(x))

x ^ = a r g m a x x   p ψ ( x ∣ e n c ϕ ( x ) ) \hat{x}=argmax_{x}~p_{\psi}(x|enc_{\phi}(x)) x^=argmaxx pψ(xencϕ(x))

编码器和解码器是一个 problem-specific(特定的问题),一般可以选择 RNN 作为解码器和编码器。

Generative Adversarial Networks

WGAN:
m i n θ m a x w ∈ W E z ∼ p r [ f w ( z ) ] − E z ~ ∼ p z [ f w ( z ~ ) ] min_{\theta}max_{w\in W}E_{z\sim p_r}[f_w(z)]-E_{\tilde{z}\sim p_z}[f_w(\tilde{z})] minθmaxwWEzpr[fw(z)]Ez~pz[fw(z~)]

weight-clipping w = [ − ϵ , ϵ ] w=[-\epsilon,\epsilon] w=[ϵ,ϵ]

Adversarially Regularized Autoencoder

ARAE combines a discrete autoencoder with a GAN-regularized latent representation. 模型如下图所示,学习离散空间 P ψ P_{\psi} Pψ。直觉上这种方法用一个更灵活的先验分布提供了一个更平滑的离散编码空间。
在这里插入图片描述

模型包含 a discrete autoencoder regularized with a prior distribution,
m i n ϕ , ψ L r e c ( ϕ , ψ ) + λ ( 1 ) W ( P Q , P z ) min_{\phi,\psi}L_{rec}(\phi,\psi)+\lambda^{(1)}W(P_Q,P_z) minϕ,ψLrec(ϕ,ψ)+λ(1)W(PQ,Pz)

其中 W W W表示离散编码空间 P Q P_Q PQ(就是 x x x经过编码后 e n c ϕ ( x )

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值