从Autoencoder到beta-VAE
Autoencoder是一个为了使用中间有一个狭窄的bottleneck的神经网络模型重建高维数据而发明的(对于Varaitional Autoencoder可能不是这样的,我们将在后面的章节中详细研究它)。一个很好的副产品是降维:bottleneck层捕获了压缩的潜在编码。这样的低维表示可以用作各种应用(即搜索中的嵌入向量),帮助数据压缩,或者揭示潜在的数据生成因素。
Notions
符号 | 意义 |
---|---|
D \mathcal{D} D | 数据集, D = { x ( 1 ) , x ( 2 ) , … , x ( n ) } \mathcal{D}=\left\{\mathbf{x}^{(1)}, \mathbf{x}^{(2)}, \ldots, \mathbf{x}^{(n)}\right\} D={x(1),x(2),…,x(n)},包括 n n n个数据样本; ∣ D ∣ = n \mid \mathcal{D}\mid=n ∣D∣=n. |
x i \mathbf{x^{i}} xi | 每个数据点是一个 d d d维的向量, x ( i ) = [ x 1 ( i ) , x 2 ( i ) , … , x d ( i ) ] \mathbf{x}^{(i)}=\left[x_1^{(i)}, x_2^{(i)}, \ldots, x_d^{(i)}\right] x(i)=[x1(i),x2(i),…,xd(i)]. |
x \mathbf{x} x | 数据集中的一个样本, x ∈ D \mathbf{x}\in\mathcal{D} x∈D. |
x ′ \mathbf{x^{\prime}} x′ | x \mathbf{x} x的重建版本 |
x ~ \tilde{\mathbf{x}} x~ | x \mathbf{x} x的损坏版本 |
z \mathbf{z} z | bottleneck层学到的压缩编码 |
a j ( l ) a_j^{(l)} aj(l) | 第 l l l 个隐藏层中第 j j j个神经元的激活函数 |
g ϕ ( . ) g_\phi(.) gϕ(.) | 以 ϕ \phi ϕ为参数的编码函数 |
f θ ( . ) f_\theta(.) fθ(.) | 以 θ \theta θ为参数的解码函数 |
q ϕ ( z ∣ x ) q_{\phi}\mathbf{(z\mid x)} qϕ(z∣x) | 估计后验概率函数,也称为概率编码器. |
p θ ( z ∣ x ) p_{\theta}\mathbf{(z\mid x}) pθ(z∣x) | 给定潜在代码生成真实数据样本的可能性,也称为概率解码器. |
Autoencoder
Autoencoder是一种神经网络,旨在以无监督的方式学习一个恒等函数,以重建原始输入,同时在这个过程中压缩数据,从而发现一个更有效和压缩的表示。这个想法起源于20世纪80年代,后来被Hinton&Salakhutdinov, 2006的开创性论文所推广。
它由两个网络组成:
-
Encoder network:它将原始的高维输入转变成成潜在的低维编码。输入的尺寸比输出的尺寸大。
-
Decoder network:解码器网络从编码中恢复数据,可能会有越来越大的输出层。
编码器网络本质上完成了降维,就像我们如何使用主成分分析(PCA)或矩阵分解(MF)一样。此外,自动编码器针对编码的数据重建进行了显式优化。一个好的中间表示不仅可以捕获潜在变量,而且有利于全面的解压过程。
该模型包含以 ϕ \phi ϕ为参数的编码器函数 g ( . ) g(.) g(.),并有以 θ \theta θ为参数的解码器函数 f ( . ) f(.) f(.)。在bottleneck层为输入 x \mathbf{x} x学习的低维编码是 z = g ϕ ( x ) \mathbf{z}=g_\phi(\mathbf{x}) z=gϕ(x),重建的输入是 x ′ = f θ ( g ϕ ( x ) ) \mathbf{x}^{\prime}=f_\theta\left(g_\phi(\mathbf{x})\right) x′=fθ(gϕ(x))。
参数
(
θ
,
ϕ
)
(\theta, \phi)
(θ,ϕ)被一起学习,以输出一个与原始输入相同的重建数据样本,
x
≈
f
θ
(
g
ϕ
(
x
)
)
\mathbf{x} \approx f_\theta\left(g_\phi(\mathbf{x})\right)
x≈fθ(gϕ(x)),或者换句话说,学习恒等函数。有各种指标来量化两个向量之间的差异,例如激活函数为sigmoid时的交叉熵,或者简单的MSE损失:
L
A
E
(
θ
,
ϕ
)
=
1
n
∑
i
=
1
n
(
x
(
i
)
−
f
θ
(
g
ϕ
(
x
(
i
)
)
)
)
2
L_{\mathrm{AE}}(\theta, \phi)=\frac{1}{n} \sum_{i=1}^n\left(\mathbf{x}^{(i)}-f_\theta\left(g_\phi\left(\mathbf{x}^{(i)}\right)\right)\right)^2
LAE(θ,ϕ)=n1i=1∑n(x(i)−fθ(gϕ(x(i))))2
Denoising Autoencoder
由于autoencoder学习恒等函数,当网络参数多于数据点时,我们面临“过度拟合”的风险。
为了避免过度拟合并提高鲁棒性,Denoising Autoencoder(Vincent et al. 2008) 提出了对基本autoencoder的修改。通过以随机方式向输入向量的某些值添加噪声或掩盖输入向量的某些值来部分破坏输入,
x
~
∼
M
D
(
x
~
∣
x
)
\tilde{\mathbf{x}} \sim \mathcal{M}_{\mathcal{D}}(\tilde{\mathbf{x}} \mid \mathbf{x})
x~∼MD(x~∣x)。然后训练模型以恢复原始输入(注意:不是损坏的输入)。
x
~
(
i
)
∼
M
D
(
x
~
(
i
)
∣
x
(
i
)
)
L
D
A
E
(
θ
,
ϕ
)
=
1
n
∑
i
=
1
n
(
x
(
i
)
−
f
θ
(
g
ϕ
(
x
~
(
i
)
)
)
)
2
\begin{aligned} \tilde{\mathbf{x}}^{(i)} & \sim \mathcal{M}_{\mathcal{D}}\left(\tilde{\mathbf{x}}^{(i)} \mid \mathbf{x}^{(i)}\right) \\ L_{\mathrm{DAE}}(\theta, \phi) & =\frac{1}{n} \sum_{i=1}^n\left(\mathbf{x}^{(i)}-f_\theta\left(g_\phi\left(\tilde{\mathbf{x}}^{(i)}\right)\right)\right)^2 \end{aligned}
x~(i)LDAE(θ,ϕ)∼MD(x~(i)∣x(i))=n1i=1∑n(x(i)−fθ(gϕ(x~(i))))2
其中
M
D
\mathcal{M}_{\mathcal{D}}
MD定义了从真实数据样本到噪声或者损坏样本的映射。
这种设计的动机是人类可以很容易地识别一个物体或场景,即使视图被部分遮挡或损坏。为了"修复 "部分被破坏的输入,denoising autoencoder码器必须发现和捕捉输入的各个维度之间的关系,以便推断出丢失的部分。
对于具有高冗余度的高维输入,如图像,该模型可能依赖于从许多输入维度的组合中收集的根据来恢复去噪版本,而不是过度拟合一个维度。这为学习稳健的潜在表征奠定了良好的基础。
噪声是由一个随机映射控制的 M D ( x ~ ∣ x ) \mathcal{M}_\mathcal{D}(\mathbf{\tilde{x}|x}) MD(x~∣x),而且它不是特定于某一类型的破坏过程(即掩蔽噪声、高斯噪声、盐和胡椒噪声等)。当然,破坏过程可以配备先验知识。
在原始DAE论文的实验中,噪声是这样应用的:随机选择固定比例的输入维度,并将其值强制为0。 听起来很像dropout,对吗?嗯,去噪自动编码器是在2008年提出的,比dropout论文早4年(Hinton, et al. 2012)。
Sparse Autoencoder
Sparse Autoencoder对隐藏单元的激活应用了一个“稀疏”约束,以避免过度拟合并提高鲁棒性。它迫使模型只有少量的隐藏单元同时被激活,或者换句话说,一个隐藏神经元应该在大部分时间内不被激活。
回想一下,常见的激活函数包括 sigmoid、tanh、relu、leaky relu 等。当值接近 1 时激活神经元,当值接近 0 时神经元失活。
假设在第 l l l个隐藏层中有 s l s_l sl个神经元,该层中第 j j j个神经元的激活函数被标记为 a j l ( . ) , j = 1 , . . . , s l a_j^{l}(.),j=1,...,s_l ajl(.),j=1,...,sl。该神经元的激活比例 ρ j ^ \hat{\rho_j} ρj^应该是一个小数 ρ \rho ρ,被称为稀疏参数;常见的配置是 ρ = 0.05 \rho=0.05 ρ=0.05。
这个公式是用来计算第
l
l
l个隐藏层中第
j
j
j个神经元的激活比例
ρ
j
^
\hat{\rho_j}
ρj^的。它是通过对
n
n
n个输入样本的激活函数
a
j
(
l
)
a_j^{(l)}
aj(l)进行求平均得到的。其中,
x
(
i
)
x^{(i)}
x(i)是第
i
i
i个输入样本,
n
n
n是输入样本的数量。由于这个平均值通常会近似于稀疏参数
ρ
\rho
ρ,因此可以用这个平均值作为
ρ
j
^
\hat{\rho_j}
ρj^的近似值。
ρ
^
j
l
=
1
n
∑
i
=
1
n
[
a
j
(
l
)
x
(
(
i
)
)
]
≈
ρ
\hat{\rho}_j^l=\frac{1}{n}\sum_{i=1}^n[a_j^{(l)}x(^{(i)})]\approx\rho
ρ^jl=n1i=1∑n[aj(l)x((i))]≈ρ
这个约束是通过在损失函数中加入一个惩罚项来实现的。KL-散度
D
K
L
D_{KL}
DKL测量两个伯努利分布之间的差异,一个是平均值
ρ
\rho
ρ,另一个是平均值
ρ
^
j
(
l
)
\hat{\rho}_j^{(l)}
ρ^j(l)。超参数
β
\beta
β控制控制我们想要对稀疏性损失应用的惩罚强度。
L
S
A
E
(
θ
)
=
L
(
θ
)
+
β
∑
l
=
1
L
∑
j
=
1
s
l
D
K
L
(
ρ
∥
ρ
^
j
(
l
)
)
=
L
(
θ
)
+
β
∑
l
=
1
L
∑
j
=
1
s
l
ρ
log
ρ
ρ
^
j
(
l
)
+
(
1
−
ρ
)
log
1
−
ρ
1
−
ρ
^
j
(
l
)
\begin{aligned} L_{\mathrm{SAE}}(\theta) & =L(\theta)+\beta \sum_{l=1}^L \sum_{j=1}^{s_l} D_{\mathrm{KL}}\left(\rho \| \hat{\rho}_j^{(l)}\right) \\ & =L(\theta)+\beta \sum_{l=1}^L \sum_{j=1}^{s_l} \rho \log \frac{\rho}{\hat{\rho}_j^{(l)}}+(1-\rho) \log \frac{1-\rho}{1-\hat{\rho}_j^{(l)}} \end{aligned}
LSAE(θ)=L(θ)+βl=1∑Lj=1∑slDKL(ρ∥ρ^j(l))=L(θ)+βl=1∑Lj=1∑slρlogρ^j(l)ρ+(1−ρ)log1−ρ^j(l)1−ρ
图3. 均值为
ρ
=
0.5
的伯努利分布与均值为
0
≤
ρ
^
≤
1
的伯努利分布之间的KL散度
\text{图3. 均值为}\rho=0.5\text{的伯努利分布与均值为}0\le\hat{\rho}\le1\text{的伯努利分布之间的KL散度}
图3. 均值为ρ=0.5的伯努利分布与均值为0≤ρ^≤1的伯努利分布之间的KL散度
k − k- k−Sparse Autoencoder
在**
k
−
k-
k−Sparse Autoencoder**(Makhzani和Frey,2013)中,通过在具有线性激活函数的bottleneck层中只保留前
k
k
k个最高的激活来强制执行稀疏性。首先,我们通过编码器网络运行前馈,得到压缩后的代码:
z
=
g
(
x
)
\mathbf{z=g(x)}
z=g(x)。对代码向量
z
\mathbf{z}
z中的值进行排序,只保留最大的
k
k
k个值,而其他神经元被设置为0。现在我们有了一个稀疏化的编码:
z
′
=
S
p
a
r
s
i
f
y
(
z
)
\mathbf{z'{=Sparsify(z)}}
z′=Sparsify(z)。计算输出和稀疏化代码的损失、
L
=
∣
x
−
f
(
z
′
)
∣
2
2
\mathbf{L=|x-f(z')|_2^2}
L=∣x−f(z′)∣22。而且,反向传播只经过前
k
k
k个被激活的隐藏单元!
Contractive Autoencoder
与sparse autoencoder类似,Contractive Autoencoder(Rifai, et al, 2011)鼓励学习到的表征保持在收缩空间中,以获得更好的鲁棒性。
它在损失函数中增加了一个项,以惩罚对输入过于敏感的表示,从而提高对训练数据点周围的小扰动的稳健性。敏感性是由编码器激活的雅各布矩阵对输入的Frobenius准则来衡量的:
∥
J
f
(
x
)
∥
F
2
=
∑
i
j
(
∂
h
j
(
x
)
∂
x
i
)
2
\left\|J_f(\mathbf{x})\right\|_F^2=\sum_{i j}\left(\frac{\partial h_j(\mathbf{x})}{\partial x_i}\right)^2
∥Jf(x)∥F2=ij∑(∂xi∂hj(x))2
其中
h
j
h_j
hj是压缩代码
z
=
f
(
x
)
z=f(x)
z=f(x) 中的一个单元输出。
这个惩罚项是所学编码相对于输入维度的所有偏导数的平方之和。作者声称,根据经验,这个惩罚项被发现可以刻画出一个对应于低维非线性流形的表征,同时对流形正交的多数方向保持不变。
VAE: Variational Autoencoder
变量自动编码器(Kingma & Welling, 2014)的想法,简称VAE,实际上与上述所有自动编码器模型不太相似,但深深扎根于变分贝叶斯和图模型的方法。
我们不是把输入映射成一个固定的向量,而是要把它映射成一个分布。让我们把这个分布标记为 p θ p_\theta pθ,以 θ \theta θ为参数。数据输入 x x x和潜在编码向量 z z z之间的关系可以完全定义为:
-
先验 p θ ( z ) p_\theta(z) pθ(z)
-
似然 p θ ( x ∣ z ) p_\theta(x|z) pθ(x∣z)
-
后验 p θ ( z ∣ x ) p_\theta(z|x) pθ(z∣x)
假设我们知道这个分布的真实参数 θ ∗ θ^* θ∗。为了生成一个看起来像真实数据点 x ( i ) x^{(i)} x(i)的样本,我们遵循以下步骤:
- 首先,从先验分布 p θ ∗ ( z ) p_{\theta^*}(z) pθ∗(z)中采样 z ( i ) z^{(i)} z(i)。
- 然后从条件分布 p θ ∗ ( x ∣ z = z ( i ) ) p_{θ^∗}(x|z=z^{(i)}) pθ∗(x∣z=z(i)) 生成值 x ( i ) x^{(i)} x(i)。
最佳参数
θ
∗
θ^∗
θ∗是使生成真实数据样本的概率最大化的参数:
θ
∗
=
arg
max
θ
∏
i
=
1
n
p
θ
(
x
(
i
)
)
\theta^*=\arg \max _\theta \prod_{i=1}^n p_\theta\left(\mathbf{x}^{(i)}\right)
θ∗=argθmaxi=1∏npθ(x(i))
通常我们使用对数概率将 RHS 上的乘积转换为总和:
θ
∗
=
arg
max
θ
∑
i
=
1
n
log
p
θ
(
x
(
i
)
)
\theta^*=\arg \max _\theta \sum_{i=1}^n \log p_\theta\left(\mathbf{x}^{(i)}\right)
θ∗=argθmaxi=1∑nlogpθ(x(i))
p
θ
(
x
(
i
)
)
p_\theta\left(\mathbf{x}^{(i)}\right)
pθ(x(i)) 是在参数
θ
\theta
θ 下生成数据点
x
(
i
)
\mathbf{x}^{(i)}
x(i) 的概率密度函数值。在 VAE 中,我们希望最大化所有数据点的生成概率密度函数的乘积,从而找到最优的参数
θ
∗
\theta^*
θ∗。所以,该公式就是要求最大化所有数据点的生成概率密度函数的乘积,以找到最优的参数
θ
∗
\theta^*
θ∗。
现在让我们更新这个方程,以更好地展示数据生成过程,从而涉及编码矢量。
p
θ
(
x
(
i
)
)
=
∫
p
θ
(
x
(
i
)
∣
z
)
p
θ
(
z
)
d
z
p_\theta\left(\mathbf{x}^{(i)}\right)=\int p_\theta\left(\mathbf{x}^{(i)} \mid \mathbf{z}\right) p_\theta(\mathbf{z}) d \mathbf{z}
pθ(x(i))=∫pθ(x(i)∣z)pθ(z)dz
不幸的是,按照这种方式计算
p
θ
(
x
(
i
)
)
p_\theta\left(\mathbf{x}^{(i)}\right)
pθ(x(i)) 是非常昂贵的,因为要检查所有可能的
z
\mathbf{z}
z 值并将它们相加。为了缩小值空间以便更快地进行搜索,我们想引入一个新的近似函数,用于输出给定输入
x
\mathbf{x}
x 的可能编码,即
q
ϕ
(
z
∣
x
)
q_\phi(\mathbf{z} \mid \mathbf{x})
qϕ(z∣x),由参数
ϕ
\phi
ϕ 参数化。
图5. 变分自编码器中涉及的图形模型。实线表示生成分布
p
θ
(
.
)
,虚线表示后验分布
q
ϕ
(
z
∣
x
)
以近似难以计算的后验
p
θ
(
z
∣
x
)
。
\text{图5. 变分自编码器中涉及的图形模型。实线表示生成分布}\:p_\theta(.),\text{虚线表示后验分布}\:q_\phi(\mathbf{z}\mid \mathbf{x})\text{以近似难以计算的后验}\:p_\theta(\mathbf{z} \mid \mathbf{x})。
图5. 变分自编码器中涉及的图形模型。实线表示生成分布pθ(.),虚线表示后验分布qϕ(z∣x)以近似难以计算的后验pθ(z∣x)。
现在这个结构看起来很像一个autoencoder:
-
条件概率 p θ ( x ∣ z ) p_\theta(\mathbf{x}|\mathbf{z}) pθ(x∣z)定义了一个生成模型,类似于上面介绍的解码器 f θ ( x ∣ z ) f_θ(\mathbf{x|z}) fθ(x∣z)。 p θ ( x ∣ z ) p_\theta(\mathbf{x}|\mathbf{z}) pθ(x∣z)也被称为概率解码器。
-
近似函数 q ϕ ( z ∣ x ) q_{\phi}\mathbf{(z|x)} qϕ(z∣x)是概率编码器,扮演的角色与上述 g ϕ ( z ∣ x ) g_\phi(\mathbf{z|x}) gϕ(z∣x)类似。
Loss Function: ELBO
估计的后验 q ϕ ( z ∣ x ) q_\phi(\mathbf{z|x}) qϕ(z∣x)应该非常接近实际的 p θ ( z ∣ x ) p_\theta(\mathbf{z|x}) pθ(z∣x)。我们可以用Kullback-Leibler散度来量化这两个分布之间的距离。KL散度 D K L ( X ∣ Y ) D_{KL}(X|Y) DKL(X∣Y)衡量如果用分布Y来表示X,会损失多少信息。
在我们的例子中,我们想要最小化关于 ϕ \phi ϕ 的 D K L ( q ϕ ( z ∣ x ) ∣ p θ ( z ∣ x ) ) D_{KL}(q_\phi(\mathbf{z|x})\mid p_\theta(\mathbf{z|x})) DKL(qϕ(z∣x)∣pθ(z∣x))。
但为什么要使用
D
K
L
(
q
ϕ
∣
p
θ
)
D_{KL}(q_\phi|p_\theta)
DKL(qϕ∣pθ)(反向KL)而不是
D
K
L
(
p
θ
∣
q
ϕ
)
D_{KL}(p_\theta|q_\phi)
DKL(pθ∣qϕ)(前向KL)?Eric Jang在他关于贝叶斯变异方法的文章中有一个很好的解释。快速回顾一下:
前向 K L \mathrm{KL} KL 散度: D K L ( P ∣ Q ) = E z ∼ P ( z ) log P ( z ) Q ( z ) D_{\mathrm{KL}}(P \mid Q)=\mathbb{E}_{z \sim P(z)} \log \frac{P(z)}{Q(z)} DKL(P∣Q)=Ez∼P(z)logQ(z)P(z); 我们必须确保 P ( z ) > 0 \mathrm{P}(\mathrm{z})>0 P(z)>0时 Q ( z ) > 0 \mathrm{Q}(\mathrm{z})>0 Q(z)>0。优化后的变分分布 q ( z ) q(z) q(z)必须覆盖整个 p ( z ) p(z) p(z)。
反向 K L \mathrm{KL} KL 散度: D K L ( Q ∣ P ) = E z ∼ Q ( z ) log Q ( z ) P ( z ) ; D_{\mathrm{KL}}(Q \mid P)=\mathbb{E}_{z \sim Q(z)} \log \frac{Q(z)}{P(z)} ; DKL(Q∣P)=Ez∼Q(z)logP(z)Q(z); 最小化反向 KL 散度会让 Q ( z ) Q(z) Q(z) 的分布逐渐靠近并受限于 P ( z ) P(z) P(z) 的分布
现在让我们扩展方程:
D
KL
(
q
ϕ
(
z
∣
x
)
∣
p
θ
(
z
∣
x
)
)
=
∫
q
ϕ
(
z
∣
x
)
log
q
ϕ
(
z
∣
x
)
p
θ
(
z
∣
x
)
d
z
=
∫
q
ϕ
(
z
∣
x
)
log
q
ϕ
(
z
∣
x
)
p
θ
(
x
)
p
θ
(
z
,
x
)
d
z
; Because
p
(
z
∣
x
)
=
p
(
z
,
x
)
/
p
(
x
)
=
∫
q
ϕ
(
z
∣
x
)
(
log
p
θ
(
x
)
+
log
q
ϕ
(
z
∣
x
)
p
θ
(
z
,
x
)
)
d
z
=
log
p
θ
(
x
)
+
∫
q
ϕ
(
z
∣
x
)
log
q
ϕ
(
z
∣
x
)
p
θ
(
z
,
x
)
d
z
; Because
∫
q
(
z
∣
x
)
d
z
=
1
=
log
p
θ
(
x
)
+
∫
q
ϕ
(
z
∣
x
)
log
q
ϕ
(
z
∣
x
)
p
θ
(
x
∣
z
)
p
θ
(
z
)
d
z
; Because
p
(
z
,
x
)
=
p
(
x
∣
z
)
p
(
z
)
=
log
p
θ
(
x
)
+
E
z
∼
q
ϕ
(
z
∣
x
)
[
log
q
ϕ
(
z
∣
x
)
p
θ
(
z
)
−
log
p
θ
(
x
∣
z
)
]
=
log
p
θ
(
x
)
+
D
KL
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
−
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
\begin{aligned} & D_\text{KL}( q_\phi(\mathbf{z}\vert\mathbf{x}) \mid p_\theta(\mathbf{z}\vert\mathbf{x}) ) & \\ &=\int q_\phi(\mathbf{z} \vert \mathbf{x}) \log\frac{q_\phi(\mathbf{z} \vert \mathbf{x})}{p_\theta(\mathbf{z} \vert \mathbf{x})} d\mathbf{z} & \\ &=\int q_\phi(\mathbf{z} \vert \mathbf{x}) \log\frac{q_\phi(\mathbf{z} \vert \mathbf{x})p_\theta(\mathbf{x})}{p_\theta(\mathbf{z}, \mathbf{x})} d\mathbf{z} & \scriptstyle{\text{; Because }p(z \vert x) = p(z, x) / p(x)} \\ &=\int q_\phi(\mathbf{z} \vert \mathbf{x}) \big( \log p_\theta(\mathbf{x}) + \log\frac{q_\phi(\mathbf{z} \vert \mathbf{x})}{p_\theta(\mathbf{z}, \mathbf{x})} \big) d\mathbf{z} & \\ &=\log p_\theta(\mathbf{x}) + \int q_\phi(\mathbf{z} \vert \mathbf{x})\log\frac{q_\phi(\mathbf{z} \vert \mathbf{x})}{p_\theta(\mathbf{z}, \mathbf{x})} d\mathbf{z} & \scriptstyle{\text{; Because }\int q(z \vert x) dz = 1}\\ &=\log p_\theta(\mathbf{x}) + \int q_\phi(\mathbf{z} \vert \mathbf{x})\log\frac{q_\phi(\mathbf{z} \vert \mathbf{x})}{p_\theta(\mathbf{x}\vert\mathbf{z})p_\theta(\mathbf{z})} d\mathbf{z} & \scriptstyle{\text{; Because }p(z, x) = p(x \vert z) p(z)} \\ &=\log p_\theta(\mathbf{x}) + \mathbb{E}_{\mathbf{z}\sim q_\phi(\mathbf{z} \vert \mathbf{x})}[\log \frac{q_\phi(\mathbf{z} \vert \mathbf{x})}{p_\theta(\mathbf{z})} - \log p_\theta(\mathbf{x} \vert \mathbf{z})] &\\ &=\log p_\theta(\mathbf{x}) + D_\text{KL}(q_\phi(\mathbf{z}\vert\mathbf{x}) \| p_\theta(\mathbf{z})) - \mathbb{E}_{\mathbf{z}\sim q_\phi(\mathbf{z}\vert\mathbf{x})}\log p_\theta(\mathbf{x}\vert\mathbf{z}) & \end{aligned}
DKL(qϕ(z∣x)∣pθ(z∣x))=∫qϕ(z∣x)logpθ(z∣x)qϕ(z∣x)dz=∫qϕ(z∣x)logpθ(z,x)qϕ(z∣x)pθ(x)dz=∫qϕ(z∣x)(logpθ(x)+logpθ(z,x)qϕ(z∣x))dz=logpθ(x)+∫qϕ(z∣x)logpθ(z,x)qϕ(z∣x)dz=logpθ(x)+∫qϕ(z∣x)logpθ(x∣z)pθ(z)qϕ(z∣x)dz=logpθ(x)+Ez∼qϕ(z∣x)[logpθ(z)qϕ(z∣x)−logpθ(x∣z)]=logpθ(x)+DKL(qϕ(z∣x)∥pθ(z))−Ez∼qϕ(z∣x)logpθ(x∣z); Because p(z∣x)=p(z,x)/p(x); Because ∫q(z∣x)dz=1; Because p(z,x)=p(x∣z)p(z)
方程的LHS正是我们在学习真实分布时想要最大化的东西:我们想要最大化产生真实数据的(对数)可能性(也就是
l
o
g
p
θ
(
x
)
logp_{\theta}(x)
logpθ(x)),同时最小化真实分布和估计后验分布之间的差异(术语
D
K
L
D_{KL}
DKL的作用就像一个正则器)。请注意,
p
θ
(
x
)
p_{θ}(x)
pθ(x)相对于
q
ϕ
q_\phi
qϕ是固定的。
上述的负数定义了我们的损失函数:
L
V
A
E
(
θ
,
ϕ
)
=
−
log
p
θ
(
x
)
+
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
∣
x
)
)
=
−
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
+
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
θ
∗
,
ϕ
∗
=
arg
min
θ
,
ϕ
L
V
A
E
\begin{aligned} L_{\mathrm{VAE}}(\theta, \phi) & =-\log p_\theta(\mathbf{x})+D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z} \mid \mathbf{x})\right) \\ & =-\mathbb{E}_{\mathbf{z} \sim q \phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})+D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z})\right) \\ \theta^*, \phi^* & =\arg \min _{\theta, \phi} L_{\mathrm{VAE}} \end{aligned}
LVAE(θ,ϕ)θ∗,ϕ∗=−logpθ(x)+DKL(qϕ(z∣x)∥pθ(z∣x))=−Ez∼qϕ(z∣x)logpθ(x∣z)+DKL(qϕ(z∣x)∥pθ(z))=argθ,ϕminLVAE
在变分贝叶斯方法中,这种损失函数被称为变分下界或evidence下界。名称中的“下界”部分来自 KL 散度始终为非负的事实,因此$ −L_{\mathbf VAE}$ 是
l
o
g
p
θ
(
x
)
logp_θ(x)
logpθ(x) 的下界。
−
L
V
A
E
=
log
p
θ
(
x
)
−
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
∣
x
)
)
≤
log
p
θ
(
x
)
-L_{\mathrm{VAE}}=\log p_\theta(\mathbf{x})-D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z} \mid \mathbf{x})\right) \leq \log p_\theta(\mathbf{x})
−LVAE=logpθ(x)−DKL(qϕ(z∣x)∥pθ(z∣x))≤logpθ(x)
这句话中,“variational lower bound” 指的是变分下界或evidence下界,即能够被用来估计模型生成的样本与真实样本之间差异的指标。“KL divergence is always non-negative” 表示 KL 散度总是非负数。因此,
−
L
V
A
E
-L_{\mathrm{VAE}}
−LVAE 的值就是
log
p
θ
(
x
)
\log p_\theta(\mathbf{x})
logpθ(x) 的下界,这意味着我们可以使用
−
L
V
A
E
-L_{\mathrm{VAE}}
−LVAE 来估计
log
p
θ
(
x
)
\log p_\theta(\mathbf{x})
logpθ(x),并且保证得到的结果不会低于实际值。
Reparameterization Trick
损失函数中的期望项涉及从 z ∼ q ϕ ( z ∣ x ) \mathbf{z} \sim q_\phi(\mathbf{z} \mid \mathbf{x}) z∼qϕ(z∣x)生成样本 。采样是一种随机过程,因此我们无法反向传播梯度。为了使其可训练,引入了重参数化技巧:通常可以将随机变量 z \mathbf{z} z 表示为一个确定性变量 z = T ϕ ( x , ϵ ) \mathbf{z}=\mathcal{T}_\phi(\mathbf{x}, \boldsymbol{\epsilon}) z=Tϕ(x,ϵ),其中 ϵ \boldsymbol{\epsilon} ϵ 是一个辅助的独立随机变量,由 ϕ \phi ϕ 参数化的变换函数 T ϕ \mathcal{T}_\phi Tϕ 将 ϵ \boldsymbol{\epsilon} ϵ 转换为 z \mathbf{z} z。
例如,
q
ϕ
(
z
∣
x
)
q_\phi(\mathbf{z} \mid \mathbf{x})
qϕ(z∣x) 的常见选择是具有对角协方差结构的多元高斯分布:
z
∼
q
ϕ
(
z
∣
x
(
i
)
)
=
N
(
z
;
μ
(
i
)
,
σ
2
(
i
)
I
)
z
=
μ
+
σ
⊙
ϵ
,
w
h
e
r
e
ϵ
∼
N
(
0
,
I
)
;
R
e
p
a
r
a
m
e
t
e
r
i
z
a
t
i
o
n
t
r
i
c
k
.
\begin{align} &\mathbf{z} \sim q_\phi\left(\mathbf{z} \mid \mathbf{x}^{(i)}\right)=\mathcal{N}\left(\mathbf{z} ; \boldsymbol{\mu}^{(i)}, \boldsymbol{\sigma}^{2(i)} \boldsymbol{I}\right)\\ &\mathbf{z}=\boldsymbol{\mu}+\boldsymbol{\sigma} \odot \boldsymbol{\epsilon}, where\:\boldsymbol{\epsilon} \sim \mathcal{N}(0, \boldsymbol{I}) \quad ; Reparameterization\:trick. \end{align}
z∼qϕ(z∣x(i))=N(z;μ(i),σ2(i)I)z=μ+σ⊙ϵ,whereϵ∼N(0,I);Reparameterizationtrick.
其中
⊙
\odot
⊙ 表示逐元素相乘。
图7. 说明了重新参数化技巧如何使得
z
采样过程可训练。(图片来源:Kingma在NIPS 2015研讨会上的幻灯片第12页)
\text{图7. 说明了重新参数化技巧如何使得}\mathbf{z}\text{采样过程可训练。(图片来源:Kingma在NIPS 2015研讨会上的幻灯片第12页)}
图7. 说明了重新参数化技巧如何使得z采样过程可训练。(图片来源:Kingma在NIPS 2015研讨会上的幻灯片第12页)
图8. 具有多元高斯假设的variational autoencoder模型的图示
\text{图8. 具有多元高斯假设的variational autoencoder模型的图示}
图8. 具有多元高斯假设的variational autoencoder模型的图示
编码步骤:
- 将 x \mathbf{x} x 通过编码器 q ϕ ( z ∣ x ) q_{\phi}(\mathbf{z} \mid \mathbf{x}) qϕ(z∣x) 转化为潜在空间中的分布参数,即 μ ϕ ( x ) \mu_{\phi}(\mathbf{x}) μϕ(x) 和 log σ ϕ 2 ( x ) \log \sigma^2_{\phi}(\mathbf{x}) logσϕ2(x)。
- 从标准正态分布 N ( 0 , I ) \mathcal{N}(0, \boldsymbol{I}) N(0,I)中采样噪声 ϵ \mathbf{\epsilon} ϵ。
- 使用重参数技巧,将采样的噪声 ϵ \mathbf{\epsilon} ϵ 与分布参数 μ ϕ ( x ) \mu_{\phi}(\mathbf{x}) μϕ(x) 和 σ ϕ ( x ) \sigma_{\phi}(\mathbf{x}) σϕ(x) 结合,得到 z = μ ϕ ( x ) + σ ϕ ( x ) ⊙ ϵ \mathbf{z} = \mu_{\phi}(\mathbf{x}) + \sigma_{\phi}(\mathbf{x}) \odot \mathbf{\epsilon} z=μϕ(x)+σϕ(x)⊙ϵ,其中 ⊙ \odot ⊙ 表示元素级别的乘法。
- 最终得到的 z \mathbf{z} z 即为从数据 x \mathbf{x} x 中提取的隐变量。
需要注意的是,在第三步使用重参数技巧是为了将采样过程转化为可微分的操作,这样可以通过反向传播算法优化模型参数。
在编码器中,通常会使用神经网络将输入 x \mathbf{x} x 映射到潜在空间中的分布参数 μ ϕ ( x ) \mu_{\phi}(\mathbf{x}) μϕ(x) 和 log σ ϕ 2 ( x ) \log \sigma^2_{\phi}(\mathbf{x}) logσϕ2(x)。具体来说,输入 x \mathbf{x} x 会经过多层神经网络的计算,最终得到均值向量 μ ϕ ( x ) \mu_{\phi}(\mathbf{x}) μϕ(x) 和方差向量 σ ϕ 2 ( x ) \sigma^2_{\phi}(\mathbf{x}) σϕ2(x)。由于 σ ϕ 2 ( x ) \sigma^2_{\phi}(\mathbf{x}) σϕ2(x) 需要保证是正数,因此一般会将神经网络输出的 σ ϕ 2 ( x ) \sigma^2_{\phi}(\mathbf{x}) σϕ2(x) 进行非负化处理,例如通过取指数等方式,再加上一个很小的正数,以保证不会出现零方差。最终得到的是 log σ ϕ 2 ( x ) \log \sigma^2_{\phi}(\mathbf{x}) logσϕ2(x)。这样就可以得到潜在分布的均值和方差,从而生成随机样本 z \mathbf{z} z。
Beta-VAE
如果推断得到的潜在表示 z \mathbf{z} z 中的每个变量只对一个单独的生成因子敏感,而对其他因子相对不变,那么我们会说这个表示是分离的或因子化的。分离的表示通常具有良好的可解释性,并且易于推广到各种任务中。
例如,对于人脸照片训练的模型可能会在单独的维度中捕捉到肤色、头发颜色、头发长度、情绪、是否戴眼镜等许多相对独立的因素。这样的分离表示对于人脸图像生成非常有益。
β
\beta
β-VAE (Higgins et al., 2017) 是变分自编码器的一种修改,特别强调发现分离的潜在因子。与
V
A
E
\mathrm{VAE}
VAE 中的相同激励一样,我们希望最大化生成真实数据的概率,同时保持真实后验分布与估计后验分布之间的距离很小(例如,小于一个常量
δ
\delta
δ):
max
ϕ
,
θ
E
x
∼
D
[
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
]
subject to
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
<
δ
\begin{aligned} & \max _{\phi, \theta} \mathbb{E}_{\mathbf{x} \sim \mathcal{D}}\left[\mathbb{E}_{\mathbf{z} \sim q \phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})\right] \\ & \text { subject to } D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z})\right)<\delta \end{aligned}
ϕ,θmaxEx∼D[Ez∼qϕ(z∣x)logpθ(x∣z)] subject to DKL(qϕ(z∣x)∥pθ(z))<δ
我们可以在 KKT 条件下使用拉格朗日乘子
β
\beta
β 重新表述它。只有一个不等式约束的上述优化问题等价于最大化以下方程
F
(
θ
,
ϕ
,
β
)
\mathcal{F}(\theta, \phi, \beta)
F(θ,ϕ,β):
F
(
θ
,
ϕ
,
β
)
=
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
−
β
(
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
−
δ
)
=
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
−
β
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
+
β
δ
≥
E
z
∼
q
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
−
β
D
K
L
(
q
ϕ
(
z
∣
x
)
∥
p
θ
(
z
)
)
;
Because
β
,
δ
≥
0
\begin{array}{rlr} \mathcal{F}(\theta, \phi, \beta) & =\mathbb{E}_{\mathbf{z} \sim q_\phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})-\beta\left(D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z})\right)-\delta\right) \\ & =\mathbb{E}_{\mathbf{z} \sim q \phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})-\beta D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z})\right)+\beta \delta & \\ & \geq \mathbb{E}_{\mathbf{z} \sim q_\phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})-\beta D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) \| p_\theta(\mathbf{z})\right) \quad ; \text { Because } \beta, \delta \geq 0 \end{array}
F(θ,ϕ,β)=Ez∼qϕ(z∣x)logpθ(x∣z)−β(DKL(qϕ(z∣x)∥pθ(z))−δ)=Ez∼qϕ(z∣x)logpθ(x∣z)−βDKL(qϕ(z∣x)∥pθ(z))+βδ≥Ez∼qϕ(z∣x)logpθ(x∣z)−βDKL(qϕ(z∣x)∥pθ(z)); Because β,δ≥0
β
\beta
β-VAE 的损失函数定义如下:
L
B
E
T
A
(
ϕ
,
β
)
=
−
E
∗
z
∼
q
∗
ϕ
(
z
∣
x
)
log
p
θ
(
x
∣
z
)
+
β
D
K
L
(
q
ϕ
(
z
∣
x
)
∣
p
θ
(
z
)
)
L_{\mathrm{BETA}}(\phi, \beta)=-\mathbb{E}*{\mathbf{z} \sim q*\phi(\mathbf{z} \mid \mathbf{x})} \log p_\theta(\mathbf{x} \mid \mathbf{z})+\beta D_{\mathrm{KL}}\left(q_\phi(\mathbf{z} \mid \mathbf{x}) | p_\theta(\mathbf{z})\right)
LBETA(ϕ,β)=−E∗z∼q∗ϕ(z∣x)logpθ(x∣z)+βDKL(qϕ(z∣x)∣pθ(z))
在这里,拉格朗日乘子
β
\beta
β被视为超参数。由于
L
B
E
T
A
(
ϕ
,
β
)
L_{\mathrm{BETA}}(\phi, \beta)
LBETA(ϕ,β)的否定是拉格朗日函数
F
(
θ
,
ϕ
,
β
)
\mathcal{F}(\theta, \phi, \beta)
F(θ,ϕ,β)的下界,因此最小化损失等价于最大化拉格朗日函数,从而适用于我们最初的优化问题。当
β
=
1
\beta=1
β=1时,它与VAE相同。当
β
>
1
\beta>1
β>1时,它对潜在bottleneck施加了更强的约束,并限制了
z
\mathbf{z}
z的表示能力。对于某些条件独立的生成因子,保持它们分离是最有效的表示方法。因此,较高的
β
\beta
β鼓励更有效的潜在编码,并进一步鼓励解耦。同时,较高的
β
\beta
β可能会在重构质量和解耦程度之间产生权衡。Burgess等人(2017)深入讨论了
β
\beta
β-VAE中的解耦,并受信息瓶颈理论的启发,进一步提出了一种修改方法以更好地控制编码表示能力。
VQ-VAE and VQ-VAE-2
VQ-VAE(“Vector Quantised-Variational AutoEncoder”)模型通过编码器学习离散的潜在变量,因为对于语言、语音、推理等问题,离散表示可能更自然地适用。
向量量化(VQ)是一种将 K K K维向量映射到有限的“码”向量集合中的方法。该过程非常类似于 K N N {KNN} KNN 算法。样本应映射到的最优质心码向量是欧几里得距离最小的向量。
设 e ∈ R K × D \mathbf{e} \in \mathbb{R}^{K \times D} e∈RK×D, i = 1 , … , K i=1, \ldots, K i=1,…,K 为 VQ-VAE 中的潜在嵌入空间(也称为“码本”),其中 K K K 是潜在变量类别的数量, D D D 是嵌入大小。单个嵌入向量是 e i ∈ R D \mathbf{e}_i \in \mathbb{R}^D ei∈RD, i = 1 , … , K i=1, \ldots, K i=1,…,K。
编码器的输出 E ( x ) = z e E(\mathbf{x})=\mathbf{z}_e E(x)=ze 经过最近邻查找以匹配 K K K 个嵌入向量之一,然后匹配的码向量成为解码器的输入 D ( D( D(. ) : ) : ):
z q ( x ) = \mathbf{z}_q(\mathbf{x})= zq(x)= Quantize ( E ( x ) ) = e k (E(\mathbf{x}))=\mathbf{e}_k (E(x))=ek , k = arg min i ∥ E ( x ) − e i ∥ 2 k=\arg \min _i\left\|E(\mathbf{x})-\mathbf{e}_i\right\|_2 k=argmini∥E(x)−ei∥2
请注意,在不同的应用程序中,离散潜在变量的形状可能不同;例如,语音为1D,图像为2D,视频为3D。
由于 argmin() 在离散空间上是不可微的,因此从解码器输入 z q \mathbf{z}_q zq 到编码器输出 z e \mathbf{z}_e ze 的梯度 ∇ z L \nabla_z L ∇zL 被复制。除了重构损失之外,VQ-VAE 还优化以下内容:
- V Q V Q VQ 损失:嵌入空间和编码器输出之间的 L2 误差。
- 承诺损失:一种鼓励编码器输出保持接近嵌入空间的度量,以防止其从一个码向量频繁波动到另一个码向量。
L = ∥ x − D ( e k ) ∥ 2 2 ⏟ reconstruction loss + ∥ sg [ E ( x ) ] ⏟ vQ loss − e k ∥ 2 2 + β ∥ ( x ) − sg [ e k ] ∥ 2 2 ⏟ commitment loss L=\underbrace{\left\|\mathbf{x}-D\left(\mathbf{e}_k\right)\right\|_2^2}_{\text {reconstruction loss }}+\underbrace{\| \operatorname{sg}[E(\mathbf{x})]}_{\text {vQ loss }}-\mathbf{e}_k \|_2^2+\underbrace{\beta\left\|(\mathbf{x})-\operatorname{sg}\left[\mathbf{e}_k\right]\right\|_2^2}_{\text {commitment loss }} L=reconstruction loss ∥x−D(ek)∥22+vQ loss ∥sg[E(x)]−ek∥22+commitment loss β∥(x)−sg[ek]∥22
其中
s
q
[
.
]
\mathrm{sq}[.]
sq[.] 是 stop_gradient
运算符。
codebook 中的embedding vectors通过 EMA(指数移动平均)进行更新。给定一个code vector
e
i
\mathbf{e}_i
ei,假设我们有
n
i
n_i
ni 个编码器输出向量
{
z
i
,
j
}
j
=
1
n
i
\left\{\mathbf{z}_{i, j}\right\}_{j=1}^{n_i}
{zi,j}j=1ni,它们被量化为
e
i
\mathbf{e}_i
ei:
N
i
(
t
)
=
γ
N
i
(
t
−
1
)
+
(
1
−
γ
)
n
i
(
t
)
m
i
(
t
)
=
γ
m
i
(
t
−
1
)
+
(
1
−
γ
)
∑
j
=
1
n
i
(
t
)
z
i
,
j
(
t
)
e
i
(
t
)
=
m
i
(
t
)
/
N
i
(
t
)
N_i^{(t)}=\gamma N_i^{(t-1)}+(1-\gamma) n_i^{(t)} \quad \mathbf{m}_i^{(t)}=\gamma \mathbf{m}_i^{(t-1)}+(1-\gamma) \sum_{j=1}^{n_i^{(t)}} \mathbf{z}_{i, j}^{(t)} \quad \mathbf{e}_i^{(t)}=\mathbf{m}_i^{(t)} / N_i^{(t)}
Ni(t)=γNi(t−1)+(1−γ)ni(t)mi(t)=γmi(t−1)+(1−γ)j=1∑ni(t)zi,j(t)ei(t)=mi(t)/Ni(t)
其中
(
t
)
(t)
(t) 指时间序列批次。
N
i
N_i
Ni 和
m
i
\mathbf{m}_i
mi 分别是累积向量计数和体积。
VQ-VAE-2(Ali Razavi 等,2019)是一个两级分层的 VQ-VAE,与自注意力自回归模型结合
- 第 1 阶段是训练分层 VQ-VAE:分层潜变量的设计旨在将局部模式(例如纹理)与全局信息(例如对象形状)分离。更大的底层codebook 的训练受到更小的顶层码的限制,这样就不必从头开始学习所有内容。
- 第2阶段是学习一个先验分布,使我们可以从中采样并生成图像。这样,解码器可以接收从训练中采样的类似分布的输入向量。使用一个强大的自回归模型,增强了多头自注意力层来捕捉先验分布(例如PixelSNAIL;Chen等人,2017)。
考虑到VQ-VAE-2取决于在简单的分层设置中配置的离散潜在变量,它生成的图像质量非常惊人。
TD-VAE
TD-VAE (“Temporal Difference VAE”; Gregor et al., 2019)适用于连续的数据。它依赖于三个主要想法,描述如下。
1. 状态空间模型
在(潜在的)状态空间模型中,一系列未观察到的隐藏状态 z = ( z 1 , … , z T ) \mathbf{z}=\left(z_1, \ldots, z_T\right) z=(z1,…,zT)确定了观测状态 x = ( x 1 , … , x T ) \mathbf{x}=\left(x_1, \ldots, x_T\right) x=(x1,…,xT)。在图13中的马尔可夫链模型中,与图6中类似,可以通过将难以处理的后验 p ( z ∣ x ) p(z \mid x) p(z∣x)近似为一个函数 q ( z ∣ x ) q(z \mid x) q(z∣x)来训练每个时间步。
2. 信念状态
一个智能体应该学会编码所有过去的状态以便推断未来,这被称为信念状态,
b
t
=
belief
(
x
1
,
…
,
x
t
)
=
b_t=\operatorname{belief}\left(x_1, \ldots, x_t\right)=
bt=belief(x1,…,xt)= belief
f
(
b
t
−
1
,
x
t
)
f\left(b_{t-1}, x_t\right)
f(bt−1,xt)。有了这个,将未来状态的分布条件化于过去就可以写成
p
(
x
t
+
1
,
…
,
x
T
∣
x
1
,
…
,
x
t
)
≈
p
(
x
t
+
1
,
…
,
x
T
∣
b
t
)
p\left(x_{t+1}, \ldots, x_T \mid x_1, \ldots, x_t\right) \approx p\left(x_{t+1}, \ldots, x_T \mid b_t\right)
p(xt+1,…,xT∣x1,…,xt)≈p(xt+1,…,xT∣bt)。在递归策略中,隐藏状态被用作TD-VAE中智能体的信念状态,因此
b
t
=
RNN
(
b
t
−
1
,
x
t
)
b_t=\operatorname{RNN}\left(b_{t-1}, x_t\right)
bt=RNN(bt−1,xt)。
3. 跳跃式预测
此外,智能体应该能够基于迄今为止收集的所有信息来想象远期,这表明具有跳跃式预测能力,即预测未来几步的状态。
回顾以上方差下界的内容:
log
p
(
x
)
≥
log
p
(
x
)
−
D
K
L
(
q
(
z
∣
x
)
∥
p
(
z
∣
x
)
)
=
E
z
∼
q
log
p
(
x
∣
z
)
−
D
K
L
(
q
(
z
∣
x
)
∥
p
(
z
)
)
=
E
z
∼
q
log
p
(
x
∣
z
)
−
E
z
∼
q
log
q
(
z
∣
x
)
p
(
z
)
=
E
z
∼
q
[
log
p
(
x
∣
z
)
−
log
q
(
z
∣
x
)
+
log
p
(
z
)
]
=
E
z
∼
q
[
log
p
(
x
,
z
)
−
log
q
(
z
∣
x
)
]
log
p
(
x
)
≥
E
z
∼
q
[
log
p
(
x
,
z
)
−
log
q
(
z
∣
x
)
]
\begin{aligned} \log p(x) & \geq \log p(x)-D_{\mathrm{KL}}(q(z \mid x) \| p(z \mid x)) \\ & =\mathbb{E}_{z \sim q} \log p(x \mid z)-D_{\mathrm{KL}}(q(z \mid x) \| p(z)) \\ & =\mathbb{E}_{z \sim q} \log p(x \mid z)-\mathbb{E}_{z \sim q} \log \frac{q(z \mid x)}{p(z)} \\ & =\mathbb{E}_{z \sim q}[\log p(x \mid z)-\log q(z \mid x)+\log p(z)] \\ & =\mathbb{E}_{z \sim q}[\log p(x, z)-\log q(z \mid x)] \\ \log p(x) & \geq \mathbb{E}_{z \sim q}[\log p(x, z)-\log q(z \mid x)] \end{aligned}
logp(x)logp(x)≥logp(x)−DKL(q(z∣x)∥p(z∣x))=Ez∼qlogp(x∣z)−DKL(q(z∣x)∥p(z))=Ez∼qlogp(x∣z)−Ez∼qlogp(z)q(z∣x)=Ez∼q[logp(x∣z)−logq(z∣x)+logp(z)]=Ez∼q[logp(x,z)−logq(z∣x)]≥Ez∼q[logp(x,z)−logq(z∣x)]
现在让我们将状态
x
t
x_t
xt的分布建模为一个概率函数,条件为所有过去的状态
x
<
t
x_{<t}
x<t和当前时间步和上一步的两个潜在变量
z
t
z_t
zt和
z
t
−
1
z_{t-1}
zt−1:
log
p
(
x
t
∣
x
<
t
)
≥
E
(
z
t
−
1
,
z
t
)
∼
q
[
log
p
(
x
t
,
z
t
−
1
,
z
t
∣
x
<
t
)
−
log
q
(
z
t
−
1
,
z
t
∣
x
≤
t
)
]
\log p\left(x_t \mid x_{<t}\right) \geq \mathbb{E}_{(z t-1, z t) \sim q}\left[\log p\left(x_t, z_{t-1}, z_t \mid x_{<t}\right)-\log q\left(z_{t-1}, z_t \mid x_{\leq t}\right)\right]
logp(xt∣x<t)≥E(zt−1,zt)∼q[logp(xt,zt−1,zt∣x<t)−logq(zt−1,zt∣x≤t)]
继续扩展方程:
log
p
(
x
t
∣
x
<
t
)
≥
E
(
z
t
−
1
,
z
t
)
∼
q
[
log
p
(
x
t
,
z
t
−
1
,
z
t
∣
x
<
t
)
−
log
q
(
z
t
−
1
,
z
t
∣
x
≤
t
)
]
≥
E
(
z
t
−
1
,
z
t
)
∼
q
[
log
p
(
x
t
∣
z
t
−
1
,
z
t
,
x
<
t
)
+
log
p
(
z
t
−
1
,
z
t
∣
x
<
t
)
−
log
q
(
z
t
−
1
,
z
t
∣
x
≤
t
)
]
≥
E
(
z
t
−
1
,
z
t
)
∼
q
[
log
p
(
x
t
∣
z
t
)
+
log
p
(
z
t
−
1
∣
x
<
t
)
+
log
p
(
z
t
∣
z
t
−
1
)
−
log
q
(
z
t
−
1
,
z
t
∣
x
≤
t
)
]
≥
E
(
z
t
−
1
,
z
t
)
∼
q
[
log
p
(
x
t
∣
z
t
)
+
log
p
(
z
t
−
1
∣
x
<
t
)
+
log
p
(
z
t
∣
z
t
−
1
)
−
log
q
(
z
t
∣
x
≤
t
)
−
log
q
(
z
t
−
1
∣
z
t
,
x
≤
t
)
]
\begin{aligned} & \log p\left(x_t \mid x_{<t}\right) \\ & \geq \mathbb{E}_{(z t-1, z t) \sim q}\left[\log p\left(x_t, z_{t-1}, z_t \mid x_{<t}\right)-\log q\left(z_{t-1}, z_t \mid x_{\leq t}\right)\right] \\ & \geq \mathbb{E}_{\left(z_{t-1}, z_t\right) \sim q}\left[\log p\left(x_t \mid z_{t-1}, z_t, x_{<t}\right)+\log p\left(z_{t-1}, z_t \mid x_{<t}\right)-\log q\left(z_{t-1}, z_t \mid x_{\leq t}\right)\right] \\ & \geq \mathbb{E}_{(z t-1, z t) \sim q}\left[\log p\left(x_t \mid z_t\right)+\log p\left(z_{t-1} \mid x_{<t}\right)+\log p\left(z_t \mid z_{t-1}\right)-\log q\left(z_{t-1}, z_t \mid x_{\leq t}\right)\right] \\ & \geq \mathbb{E}_{(z t-1, z t) \sim q}\left[\log p\left(x_t \mid z_t\right)+\log p\left(z_{t-1} \mid x_{<t}\right)+\log p\left(z_t \mid z_{t-1}\right)-\log q\left(z_t \mid x_{\leq t}\right)-\log q\left(z_{t-1} \mid z_t, x_{\leq t}\right)\right] \end{aligned}
logp(xt∣x<t)≥E(zt−1,zt)∼q[logp(xt,zt−1,zt∣x<t)−logq(zt−1,zt∣x≤t)]≥E(zt−1,zt)∼q[logp(xt∣zt−1,zt,x<t)+logp(zt−1,zt∣x<t)−logq(zt−1,zt∣x≤t)]≥E(zt−1,zt)∼q[logp(xt∣zt)+logp(zt−1∣x<t)+logp(zt∣zt−1)−logq(zt−1,zt∣x≤t)]≥E(zt−1,zt)∼q[logp(xt∣zt)+logp(zt−1∣x<t)+logp(zt∣zt−1)−logq(zt∣x≤t)−logq(zt−1∣zt,x≤t)]
注意三点:
-
根据马尔可夫假设,红色的项可以忽略。
-
根据马尔可夫假设,蓝色蓝色的项进行了展开。
-
绿色的项进行了展开,包括了向过去进行一个步长预测的平滑分布。
准确地说,有四种类型的分布需要学习:
- p D ( p_D( pD(.) 是decoder distribution:
- p ( x t ∣ z t ) p\left(x_t \mid z_t\right) p(xt∣zt) 是通常定义下的编码器;
- p ( x t ∣ z t ) → p D ( x t ∣ z t ) p\left(x_t \mid z_t\right) \rightarrow p_D\left(x_t \mid z_t\right) p(xt∣zt)→pD(xt∣zt);
- p T ( p_T( pT(.) 是transition distribution:
- p ( z t ∣ z t − 1 ) p\left(z_t \mid z_{t-1}\right) p(zt∣zt−1) 捕捉潜变量之间的时序依赖关系;
- p ( z t ∣ z t − 1 ) → p T ( z t ∣ z t − 1 ) p\left(z_t \mid z_{t-1}\right) \rightarrow p_T\left(z_t \mid z_{t-1}\right) p(zt∣zt−1)→pT(zt∣zt−1);
- p B ( p_B( pB(.$) 是belief distribution:
- p ( z t − 1 ∣ x < t ) p\left(z_{t-1} \mid x_{<t}\right) p(zt−1∣x<t) 和 q ( z t ∣ x ≤ t ) q\left(z_t \mid x_{\leq t}\right) q(zt∣x≤t) 都可以使用置信状态来预测潜变量;
- p ( z t − 1 ∣ x < t ) → p B ( z t − 1 ∣ b t − 1 ) p\left(z_{t-1} \mid x_{<t}\right) \rightarrow p_B\left(z_{t-1} \mid b_{t-1}\right) p(zt−1∣x<t)→pB(zt−1∣bt−1);
- q ( z t ∣ x ≤ t ) → p B ( z t ∣ b t ) q\left(z_t \mid x_{\leq t}\right) \rightarrow p_B\left(z_t \mid b_t\right) q(zt∣x≤t)→pB(zt∣bt);
- p S ( p_S( pS(.$) 是smoothing distribution:
- 可以将回溯到过去的平滑项 q ( z t − 1 ∣ z t , x ≤ t ) q\left(z_{t-1} \mid z_t, x_{\leq t}\right) q(zt−1∣zt,x≤t) 重新写成依赖于belief状态的形式;
- q ( z t − 1 ∣ z t , x ≤ t ) → p S ( z t − 1 ∣ z t , b t − 1 , b t ) q\left(z_{t-1} \mid z_t, x_{\leq t}\right) \rightarrow p_S\left(z_{t-1} \mid z_t, b_{t-1}, b_t\right) q(zt−1∣zt,x≤t)→pS(zt−1∣zt,bt−1,bt);
为了结合跳跃预测的思想,顺序 ELBO 不仅要对$ t
,
,
,t+1$起作用,还要对两个相距较远的时间戳 $t_1\textless t_2 $起作用。这是要最大化的最终 TD-VAE 目标函数:
J
t
1
,
t
2
=
E
[
log
p
D
(
x
t
2
∣
z
t
2
)
+
log
p
B
(
z
t
1
∣
b
t
1
)
+
log
p
T
(
z
t
2
∣
z
t
1
)
−
log
p
B
(
z
t
2
∣
b
t
2
)
−
log
p
S
(
z
t
1
∣
z
t
2
,
b
t
1
,
b
t
2
)
]
J_{t_1, t_2}=\mathbb{E}\left[\log p_D\left(x_{t_2} \mid z_{t_2}\right)+\log p_B\left(z_{t_1} \mid b_{t_1}\right)+\log p_T\left(z_{t_2} \mid z_{t_1}\right)-\log p_B\left(z_{t_2} \mid b_{t_2}\right)-\log p_S\left(z_{t_1} \mid z_{t_2}, b_{t_1}, b_{t_2}\right)\right]
Jt1,t2=E[logpD(xt2∣zt2)+logpB(zt1∣bt1)+logpT(zt2∣zt1)−logpB(zt2∣bt2)−logpS(zt1∣zt2,bt1,bt2)]