Variational Inference with Normalizing Flows翻译

摘要

近似后验分布的选择是变分推断的核心问题之一。大多数变分推断的应用仅采用简单的后验近似,以便高效推理,例如平均场近似或其他简单结构化近似。该限制对使用变分法得到的推理质量具有重大影响。我们引入了一种新方法,用于近似灵活的,任意复杂的和可扩展的后验分布。我们的近似分布是通过一个normalizing flow来构建的分布,从而通过应用一系列可逆变换来将简单的初始分布转化为更复杂的分布,直到达到所需的复杂水平。我们使用normalizing flow的视角来开发有限和无穷小flow的类别,并提供统一的方法来构建丰富的后验近似。我们证明,normalizing flow能更好地匹配真实后验分布,再加上amortized variational方法的可扩展性,可以明显改善变分推断的性能和适用性。

1.介绍

变分推断受到了巨大关注,其作为缩放概率模型在越来越大的数据集上去建模复杂的问题。 现在,变分推理作为大规模文本主题模型的核心,在半监督分类中取得最优结果,这驱动了当前用于生成现实图像的模型的发展,并且是用于许多物理和化学系统的默认工具。尽管变分推断取得了巨大成功和持续的进步,但变分方法的许多缺点限制了它们在更广泛领域和统计推断上应用的能力。后验分布的近似是其限制之一,我们在本文中进行了解决。
  变分推断要求通过一类已知概率分布近似未知的后验分布,在此期间,我们在其上寻找与真实后验的最佳近似。使用的近似方法通常是有限制的,例如,平均场近似无法地道能够类似于真实后验的分布。这是对变分方法的广泛反对,因为与其他推论方法(例如MCMC)不同,即使在渐近方案中,我们也无法恢复真正的后验分布。
  有很多证据表明,更丰富,更真实的后验近似确实会导致更好的性能。例如,与利用平均场近似的sigmoid信念网络相比,深度自回归网络使用具有自回归依存结构的后近验似,从而可以明显改善性能。 还有大量证据描述了有限的后验近似带来的有害影响。Turner & Sahani (2011) 提供两种常见问题的展示。首先是后验分布估计不足导致较大方差的问题,基于所选后验近似,这可能会导致较差的预测和不可靠的决策。第二个是后验近似的有限容量也会导致任何模型的MAP估计产生偏差(例如,在时间序列模型中,就是这种情况)。
  目前已经探索了许多丰富后验近似的方案,通常是基于结构化平均场近似,该近似能够整合近似后验的一些依存形式。另一种潜在的强大替代方案是将后验近似作为混合模型,例如 Jaakkola & Jordan (1998); Jordan et al. (1999); Gershman et al. (2012) 。 但是混合方法限制了变分推断的潜在可扩展性,因为它为了更新每个参数,需要评估每个成分的对数似然和梯度,这通常是计算昂贵的。
  本文提出了一种新方法,用于近似变分推断的后验分布。我们在第2节中首先回顾当前的通用有向图形模型在变分推断上最优方案,即基于amortized variational inference和efficient Monte Carlo gradient estimation方法。然后我们描述本文的以下贡献:

  • 我们提出了使用normalizing flows来近似后验分布,其是一种通过一系列可逆映射对概率密度进行变换来构建复杂分布的工具(第3节)。 normalizing flows的推断提供了更准确的方法,并通过添加具有线性时间复杂度的项来修改变分下界(第4节)。
  • 我们表明,normalizing flows允许我们指定一类后验近似,这些近似值能够恢复真正的后验分布,从而克服了一种经常被提到的变分推断限制。
  • 我们提出了相关方法的统一视图,以改善后验近似作为一种特殊类型的normalizing flows(第5节)。
  • 我们在实验上表明,通用normalizing flows的使用超过了其他进行后验近似的方法。

2.Amortized Variational Inference

为了执行推断,使用概率模型的边缘似然是足够的,并且需要模型中任何缺失或潜在变量的边缘化。这种整合通常是困难的,而且,我们优化了边缘似然的下界。考虑一个通用概率模型,其具有观测值 x \textbf x x,必须整合的潜在变量 z \textbf z z,以及模型参数 θ \textbf θ θ。我们为潜在变量引入了一个近似后验分布 q ϕ ( z ∣ x ) q_{\phi}(\textbf z|\textbf x) qϕ(zx),并遵循变分原理以获得边缘似然的下界:
l o g   p θ ( x ) = l o g ∫ p θ ( x ∣ z ) p ( z ) d z (1) log~p_{θ}(\textbf x)=log\int p_{θ}(\textbf x|\textbf z)p(\textbf z)d\textbf z\tag{1} log pθ(x)=logpθ(xz)p(z)dz(1)
= l o g ∫ q ϕ ( z ∣ x ) q ϕ ( z ∣ x ) p θ ( x ∣ z ) p ( z ) d z (2) =log\int\frac{q_{\phi}(\textbf z|\textbf x)}{q_{\phi}(\textbf z|\textbf x)}p_{\theta}(\textbf x|\textbf z)p(\textbf z)d\textbf z\tag{2} =logqϕ(zx)qϕ(zx)pθ(xz)p(z)dz(2)
≥ − D K L [ q ϕ ( z ∣ x ) ∣ ∣ p ( z ) ] + E q [ l o g   p θ ( x ∣ z ) ] = − F ( x ) , (3) \ge -\mathbb D_{KL}[q_{\phi}(\textbf z|\textbf x)||p(\textbf z)]+\mathbb E_q[log~p_{\theta}(\textbf x|\textbf z)]=-\mathcal F(\textbf x),\tag{3} DKL[qϕ(zx)p(z)]+Eq[log pθ(xz)]=F(x),(3)
其中我们使用了jensen不等式来获得最终的方程, p θ ( x ∣ z ) p_θ(\textbf x|\textbf z) pθ(xz)是似然函数, p ( z ) p(\textbf z) p(z)是在潜在变量的先验。我们可以通过参数 θ θ θ轻松地将该公式扩展到后验推断,但我们将仅关注潜在变量的推断。该公式通常称为负自由能 F \mathcal F F或置信下界(ELBO)。它由两项组成:首先是近似后验和先验分布(作为正则化发挥作用)的KL散度,第二个是重构误差。该下界(3)提供了一个统一的目标函数,以优化模型的参数 θ \textbf θ θ ϕ \phi ϕ
  当前最优的变分推断是通过使用mini-batch数据以及随机梯度下降来进行优化执行,这允许将变分推断缩放到非常大的数据集,因此为了能成功使用变分方法,有两个问题必须解决:1)期望对数似然导数 ∇ E q ϕ ( z ) [ l o g   p θ ( x ∣ z ) ] \nabla \mathbb E_{q_{\phi}(z)}[log~p_{\theta}(\textbf x|\textbf z)] Eqϕ(z)[log pθ(xz)]的高效计算,2)选择最丰富,计算可行的近似后验分布 q ( ⋅ ) q(·) q()。 第二个问题是本文的重点。 为了解决第一个问题,我们使用两个工具:蒙特卡洛梯度估计和推理网络,当一起使用时,我们称之为amortized variational inference。

2.1 Stochastic Backpropagation

多年来,变分推断的大部分研究都是在计算期望对数似然的梯度 ∇ E q ϕ ( z ) [ l o g   p θ ( x ∣ z ) ] \nabla \mathbb E_{q_{\phi}(z)}[log~p_{\theta}(\textbf x|\textbf z)] Eqϕ(z)[log pθ(xz)]。尽管我们先前可以使用局部变分方法,但是目前我们通常使用蒙特卡洛近似来计算此期望(如果不是已知的,还包括边界中的KL项)。 这种形式被成为双重随机估计,因为我们其中的一个随机源来自于min-batch数据,另一个来自于期望的蒙特卡洛近似。
  我们专注于具有连续变量的模型,并且我们计算期望梯度的方法是使用具有蒙特卡洛近似的期望重参数化,这被称为随机反向传播,或者随机梯度变分贝叶斯(SGVB)以及仿射变分推断。
  随机反向传播涉及两个步骤:

  • Reparameterization。我们基于一个已知的基本分布和可微分变换(例如局部尺度转换或累积分布函数)来对潜在变量进行重参数化。例如,如果 q ϕ ( z ) q_{\phi}(z) qϕ(z)是高斯分布 N ( z ∣ µ , σ 2 ) , ϕ = { µ , σ 2 } \mathcal N(z|µ,σ^2),\phi=\{µ,σ^2\} N(zµ,σ2),ϕ={µ,σ2},那么使用标准正态分布作为基本分布的局部尺度转换,允许我们能够将 z \textbf z z重参数化为:
    z ∼ N ( z ∣ μ , σ 2 ) ⇔ z = μ + σ ϵ , ϵ ∼ N ( 0 , 1 ) z\sim \mathcal N(z|\mu,\sigma^2)\Leftrightarrow z=\mu+\sigma \epsilon,\epsilon \sim \mathcal N(0,1) zN(zμ,σ2)z=μ+σϵ,ϵN(0,1)
  • Backpropagation with Monte Carlo。现在,我们使用从基本分布得到的蒙特卡洛近似,来微分(反向传播)变分分布的参数 ϕ \phi ϕ
    ∇ ϕ E q ϕ ( z ) [ f θ ( z ) ] ⇔ E N ( ϵ ∣ 0 , 1 ) [ ∇ ϕ f θ ( μ + σ ϵ ) ] . \nabla_{\phi}\mathbb E_{q_{\phi}(z)}[f_{\theta}(z)]\Leftrightarrow \mathbb E_{\mathcal N(\epsilon|0,1)}[\nabla_{\phi}f_{\theta}(\mu+\sigma\epsilon)]. ϕEqϕ(z)[fθ(z)]EN(ϵ0,1)[ϕfθ(μ+σϵ)].

基于蒙特卡洛控制变量(MCCV)估计器的许多通用方法是随机反向传播的替代方法,并允许使用可能是连续或离散的潜在变量进行梯度计算。随机反向传播的一个重要优点是,对于具有连续变量的模型,它与其他估计器相比方差最低。

2.2 Inference Networks

第二个重要做法是使用识别模型或推理网络表示近似后验分布 q ϕ ( ⋅ ) q_{\phi}(·) qϕ()。推理网络是一个模型,该模型可以学习从观测值 x x x到潜在变量 z z z的逆映射。 使用推理网络,我们可以避免去计算每个数据点的变分参数,而是计算一组全局变分参数 ϕ \phi ϕ。这使我们能够通过推理网络的参数对所有潜在变量的后验估计进行泛化来减少推断成本。我们可以使用的最简单的推理模型是对角高斯密度分布函数 q ϕ ( z ∣ x ) = N ( z ∣ µ ϕ ( x ) , d i a g ( σ ϕ 2 ( x ) ) q_{\phi}(\textbf z|\textbf x)=\mathcal N(\textbf z| \textbf µ_{\phi}(\textbf x),diag(\textbf σ^2_{\phi}(\textbf x)) qϕ(zx)=N(zµϕ(x),diag(σϕ2(x)),其中均值函数 µ ϕ ( x ) \textbf µ_{\phi}(\textbf x) µϕ(x)和标准差函数 σ ϕ ( x ) \textbf σ_{\phi}(\textbf x) σϕ(x)使用深度神经网络建模。

2.3 Deep Latent Gaussian Models

在这里插入图片描述
  在本文中,我们研究了深度潜在高斯模型(DLGM),它们是一类深度有向图模型,其由 L L L层高斯潜在变量 z l \textbf z_l zl组成。潜在变量的每一层都取决于以上一层的非线性方式,对于DLGM,这种非线性依存是由深度神经网络建模的。联合概率模型为:
p ( x , z 1 , . . . , z L ) = p ( x ∣ f 0 ( z 1 ) ) ∏ l = 1 L p ( z l ∣ f l ( z l + 1 ) ) (4) p(\textbf x,\textbf z_1,...,\textbf z_L)=p(\textbf x|f_0(\textbf z_1))\prod^L_{l=1}p(\textbf z_l|f_l(\textbf z_{l+1}))\tag{4} p(x,z1,...,zL)=p(xf0(z1))l=1Lp(zlfl(zl+1))(4)
其中第 L L L个高斯分布不取决于任何其他随机变量。潜在变量的先验是单位高斯 p ( z l ) = N ( 0 , I ) p(\textbf z_l)=\mathcal N(0,\textbf I) p(zl)=N(0,I),观测似然 p θ ( x ∣ z ) p_θ(\textbf x|\textbf z) pθ(xz)则是任何合理的分布,该分布以 z 1 \textbf z_1 z1为条件,其由深度神经网络参数化(图2)。
  DLGM使用连续的潜在变量,并且是一种非常适用于使用下界(3)和随机反向传播进行变分推断的模型。DLGM和推理网络的端到端系统可以看作是编码器-编码器架构,该观点由Kingma & Welling (2014) 提出,他们提出将模型和推理策略组合以作为变分自编码器。Kingma & Welling (2014); Rezende et al. (2014) 中使用的推理网络是简单的对角高斯分布。真实的后验分布将比该假设更为复杂,并且使用一种可缩放方法来定义多模式以及约束后验近似仍然是变分推断的一个开放问题。

3.Normalizing Flows

通过检查下界(3),我们可以看到满足 D K L [ q ∣ ∣ p ] = 0 \mathbb D_{KL}[q||p]=0 DKL[qp]=0最优的变分分布是 q ϕ ( z ∣ x ) = p θ ( z ∣ x ) q_{\phi}(\textbf z|\textbf x)=p_{\theta}(\textbf z|\textbf x) qϕ(zx)=pθ(zx),即 q q q能匹配真实的后验分布。考虑到 q ( ⋅ ) q(·) q()使用经典分布,例如独立高斯分布或其他平均场近似,这种可能性显然是无法实现的。实际上,由于近似方法的可用选择,变分方法的局限性是,即使在逐渐逼近状态下,我们也无法获得真正的后验分布。 因此,一个理想的变分分布 q ϕ ( z ∣ x ) q_{\phi}(\textbf z|\textbf x) qϕ(zx)是高度灵活的,足够灵活以能够包含真正的后验。得到这种理想分布的一条路径是基于normalizing flows的原理。
  normalizing flow描述了通过一系列可逆映射的概率密度的变换。通过反复应用变量变换规则,初始密度通过可逆映射的序列“流动”。在此变换序列的结尾,我们获得了有效的概率分布,因此这种变换序列称为normalizing flow。

3.1 Finite Flows

概率密度变换的基本规则认为,如果一个平滑映射 f : R d → R d f:\mathbb R^d\rightarrow\mathbb R^d f:RdRd具有逆变换 f − 1 = g f^{-1}=g f1=g,那么有 g ∘ f ( z ) = z g\circ f(\textbf z)=\textbf z gf(z)=z。如果我们使用此映射将具有分布 q ( z ) q(\textbf z) q(z)的随机变量 z \textbf z z进行变换,则结果随机变量 z ′ = f ( z ) \textbf z'=f(\textbf z) z=f(z)具有如下分布:
q ( z ′ ) = q ( z ) ∣ d e t ∂ f − 1 ∂ z ′ ∣ = q ( z ) ∣ d e t ∂ f ∂ z ∣ − 1 , (5) q(\textbf z')=q(\textbf z)|det\frac{∂f^{-1}}{∂\textbf z'}|=q(\textbf z)|det \frac{∂f}{∂\textbf z}|^{-1},\tag{5} q(z)=q(z)detzf1=q(z)detzf1,(5)
其中最后一个等式可以看作是链式法则和逆函数的雅可比行列式的应用。我\textbf 们可以通过连续应用(5)组合若干简单映射来构建任意复杂的密度分布。密度分布 q K ( z ) q_K(\textbf z) qK(z)可以通过对具有分布 q 0 q_0 q0的随机变量 z 0 \textbf z_0 z0进行K次变换 f k f_k fk来获得:
z K = f K ∘ . . . ∘ f 2 ∘ f 1 ( z 0 ) (6) \textbf z_K=f_K\circ...\circ f_2\circ f_1(\textbf z_0)\tag{6} zK=fK...f2f1(z0)(6)
l n   q K ( z K ) = l n   q 0 ( z 0 ) − ∑ k = 1 K l n   d e t ∣ ∂ f k ∂ z k ∣ , (7) ln~q_K(\textbf z_K)=ln~q_0(\textbf z_0)-\sum^K_{k=1}ln~det|\frac{∂f_k}{∂\textbf z_k}|,\tag{7} ln qK(zK)=ln q0(z0)k=1Kln detzkfk,(7)
其中方程(6)将在整个论文中作为组合 f K ( f K − 1 ( . . . f 1 ( x ) ) ) f_K(f_{K-1}(...f_1(x))) fK(fK1(...f1(x)))的缩写。具有初始分布 q 0 ( z 0 ) q_0(\textbf z_0) q0(z0)的路径变换 z k = f k ( z k − 1 ) \textbf z_k=f_k(\textbf z_{k-1}) zk=fk(zk1)被称为flow,由连续分布 q k q_k qk组成的路径形式称为normalizing flow。这种变换的特点,通常称为无意识统计学家法则(Law of the Unconscious Statistician,LOTUS),其可以在不明确 q K q_K qK情况下可直接计算变换密度 q K q_K qK。任何期望 E q K [ h ( z ) ] \mathbb E_{q_K}[h(\textbf z)] EqK[h(z)]都可以写为如下基于 q 0 q_0 q0的期望:
E q K [ h ( z ) ] = E q o [ h ( f K ∘ f K − 1 ∘ . . . ∘ f 1 ( z 0 ) ) ] , (8) E_{q_K}[h(\textbf z)]=\mathbb E_{q_o}[h(f_K\circ f_{K-1}\circ ... \circ f_1(\textbf z_0))],\tag{8} EqK[h(z)]=Eqo[h(fKfK1...f1(z0))],(8)
h ( z ) h(\textbf z) h(z)不依赖于 q K q_K qK时,不需要计算其对数雅可比行列式项。
  我们可以将可逆流理解为在初始密度上的一系列扩展或收缩影响。对于扩展,映射 z ′ = f ( z ) \textbf z'=f(\textbf z) z=f(z)将点 z \textbf z z从区域 R d \mathbb R^d Rd中拉开,从而降低了该区域的密度,同时增加了区域以外的密度。相反,对于收缩,映射将指向区域的内部,同时降低了外部密度,从而增加了内部的密度。
  现在,normalizing flow这种形式为我们提供了一种系统的方式,可以指定变分推理所需的近似后验分布 q ( z ∣ x ) q(\textbf z|\textbf x) q(zx)。通过适当的选择变换 f K f_K fK,我们可以使用一个简单的初始分布,例如独立高斯分布,并应用不同长度的normalizing flow以获得逐渐复杂和多模式的分布。

3.2 Infinitesimal Flows

自然而然地需要考虑一种特殊情况,即normalizing flow的长度趋向于无限。在这种情况下,我们获得了一个infinitesimal flow,其不是用有限的变换序列来描述的,而是描述为初始密度 q 0 ( z ) q_0(\textbf z) q0(z)随时间演变的偏微分方程: ∂ ∂ t q t ( z ) = T t [ q t ( z ) ] \frac{∂}{∂t}q_t(\textbf z)=\mathcal T_t[q_t(\textbf z)] tqt(z)=Tt[qt(z)],其中 T \mathcal T T描述了动态连续时间。
  Langevin Flow。朗之万随机微分方程(SDE)给出了一个重要的flows类别:
d z ( t ) = F ( z ( t ) , t ) d t + G ( z ( t ) , t ) d ξ ( t ) , (9) d\textbf z(t)=\textbf F(\textbf z(t), t)dt+\textbf G(\textbf z(t),t)d\textbf ξ(t),\tag{9} dz(t)=F(z(t),t)dt+G(z(t),t)dξ(t),(9)
其中 d ξ ( t ) d\textbf ξ(t) dξ(t)是具有 E [ ξ i ( t ) ] = 0 \mathbb E[\textbf ξ_i(t)]=0 E[ξi(t)]=0并且 E [ ξ i ( t ) ξ j ( t ′ ) ] = δ i , j δ ( t − t ′ ) E[\textbf ξ_i(t)\textbf ξ_j(t')]=δ_{i,j}δ(t -t') E[ξi(t)ξj(t)]=δi,jδ(tt)的维纳过程, F \textbf F F是漂移矢量, D = G G T \textbf D=GG^T D=GGT是扩散矩阵。如果我们通过Langevin flow (9)变换具有初始密度 q 0 ( z ) q_0(\textbf z) q0(z)的随机变量,那么密度变换的规则由福克-普朗克方程(或概率论中的柯尔莫哥洛夫方程)给出。在时刻 t t t时变换的密度 q t ( z ) q_t(\textbf z) qt(z)将演变为:
∂ ∂ t q t ( z ) = − ∑ i ∂ ∂ z i [ F i ( z , t ) q t ] + 1 2 ∑ i , j ∂ 2 ∂ z i ∂ z j [ D i j ( z , t ) q t ] . \frac{∂}{∂t}q_t(\textbf z)=-\sum_i\frac{∂}{∂z_i}[F_i(\textbf z,t)q_t]+\frac{1}{2}\sum_{i,j}\frac{∂^2}{∂z_i∂z_j}[D_{ij}(\textbf z,t)q_t]. tqt(z)=izi[Fi(z,t)qt]+21i,jzizj2[Dij(z,t)qt].
  在机器学习中,我们通常使用 F ( z , t ) = − ∇ z L ( z ) F(\textbf z,t)=−∇_z\mathcal L(\textbf z) F(z,t)=zL(z) G ( z , t ) = 2 δ i j G(\textbf z,t)=\sqrt{2}\delta_{ij} G(z,t)=2 δij的Langevin flow,其中 L ( z ) \mathcal L(\textbf z) L(z)是我们模型的未归一化对数密度 。
  重要的是,在这种情况下, q t ( z ) q_t(\textbf z) qt(z)的固定解由Boltzmann分布给出: q ∞ ( z ) ∝ e − L ( z ) q_∞(\textbf z)∝e^{-\mathcal L(\textbf z)} q(z)eL(z)。也就是说,如果我们从初始密度 q 0 ( z ) q_0(\textbf z) q0(z)开始并通过langevin SDE进化其变量 z 0 \textbf z_0 z0,则结果变量 z ∞ \textbf z_∞ z分布将根据 q ∞ ( z ) ∝ e − L ( z ) q_∞(z)∝e^{-\mathcal L(\textbf z)} q(z)eL(z)得到,即真实后验分布。Welling & Teh (2011); Ahn et al. (2012); Suykens et al. (1998) 探索了这种方法,用于从复杂密度中抽样。
  Hamiltonian Flow。还可以用Hamiltonian Monte Carlo方法在一个由动态Hamiltonian H ( z , ω ) = − L ( z ) − 1 2 ω T Mω \mathcal H(\textbf z,\textbf ω)=-\mathcal L(\textbf z)-\frac{1}{2}\textbf ω^T\textbf M\textbf ω H(z,ω)=L(z)21ωTMω得到的增强空间 z ~ = ( z , ω ) \tilde {\textbf z}=(\textbf z,\textbf ω) z~=(z,ω)上描述normalizing flow。HMC也广泛用于机器学习,例如Neal (2011)。我们将在第5节中使用Hamiltonian flow与Salimans et al. (2015) 中引入的Hamiltonian variational方法建立联系。

4.Inference with Normalizing Flows

为了使用有限normalizing flows进行推断,我们必须指定一个可使用的可逆变换类,以及用于计算雅可比行列式的高效机制。虽然可以直接构建等式(5)中使用的可逆参数化函数,例如可逆神经网络,但这种方法在计算雅可比行列式时非常复杂,复杂度为 O ( L D 3 ) O(LD^3) O(LD3),其中 D D D是隐藏维度, L L L是隐藏层的数量。此外,计算雅可比行列式的梯度涉及额外其他操作,这些操作的复杂度也是 O ( L D 3 ) O(LD^3) O(LD3),并且涉及矩阵逆,这些矩阵在数值上是不稳定的。因此,我们要求normalizing flows允许低成本计算行列式或根本不需要雅可比矩阵。

4.1 Invertible Linear-time Transformations

在这里插入图片描述
  我们考虑了如下所示的变换形式:
f ( z ) = z + u h ( w T z + b ) , (10) f(\textbf z)=\textbf z+\textbf uh(\textbf w^T\textbf z+b),\tag{10} f(z)=z+uh(wTz+b),(10)
其中 λ = { w ∈ R D , u ∈ R D , b ∈ R } λ=\{\textbf w∈\mathbb R^D,\textbf u∈\mathbb R^D,b∈\mathbb R\} λ={wRD,uRD,bR}是自由参数, h ( ⋅ ) h(·) h()是平滑逐元素非线性变换,其导数为 h ′ ( ⋅ ) h'(·) h()。 对于此映射,我们可以在 O ( D ) O(D) O(D)时间复杂度内计算对数雅可比行列式项:
ψ ( z ) = h ′ ( w T z + b ) w (11) \psi(\textbf z)=h'(\textbf w^T\textbf z+b)\textbf w\tag{11} ψ(z)=h(wTz+b)w(11)
d e t ∣ ∂ f ∂ z ∣ = ∣ d e t ( I + u ψ ( z ) T ) ∣ = ∣ 1 + u T ψ ( z ) ∣ . (12) det|\frac{∂f}{∂\textbf z}|=|det(\textbf I+\textbf u\psi(\textbf z)^T)|=|1+\textbf u^T\psi(\textbf z)|.\tag{12} detzf=det(I+uψ(z)T)=1+uTψ(z).(12)
  基于等式(7),我们得出的结论是,通过由等式(10)构建的映射序列 f k f_k fk,能将任意初始分布 q 0 ( z ) q_0(\textbf z) q0(z)转换得到目标分布 q K ( z ) q_K(\textbf z) qK(z),且映射序列可简化为:
z K = f K ◦ f K − 1 ◦ . . . ◦ f 1 ( z ) l n   q K ( z K ) = l n   q 0 ( z ) − ∑ k = 1 K l n   ∣ 1 + u k T ψ k ( z k ) ∣ . (13) \begin{array}{cc} \textbf z_K=f_K◦f_{K-1}◦...◦f_1(\textbf z) \\ ln~q_K(\textbf z_K)=ln~q_0(\textbf z)-\sum^K_{k=1}ln~|1+\textbf u^T_k\psi_k(\textbf z_k)|. \end{array}\tag{13} zK=fKfK1...f1(z)ln qK(zK)=ln q0(z)k=1Kln 1+ukTψk(zk).(13)
  由变换(13)定义的flow通过在垂直于超平面 w T z + b = 0 w^T\textbf z+b= 0 wTz+b=0的方向上应用一系列收缩和扩展来修改初始分布 q 0 q_0 q0,因此我们将这些映射称为planar flow
  作为替代方案,我们可以考虑另外一个变换形式,该变换围绕参考点 z 0 \textbf z_0 z0修改初始密度 q 0 q_0 q0。变换形式是:
f ( z ) = z + β h ( α , r ) ( z − z 0 ) , d e t ∣ ∂ f ∂ z ∣ = [ 1 + β h ( α , r ) ] d − 1 [ 1 + β h ( α , r ) + h ′ ( α , r ) r ] , , (14) \begin{array}{cc} f(\textbf z)=\textbf z+\beta h(\alpha,r)(\textbf z-\textbf z_0), det|\frac{∂f}{∂\textbf z}|=[1+\beta h(\alpha,r)]^{d-1}[1+\beta h(\alpha,r)+h'(\alpha,r)r], \end{array},\tag{14} f(z)=z+βh(α,r)(zz0),detzf=[1+βh(α,r)]d1[1+βh(α,r)+h(α,r)r],,(14)
其中 r = ∣ z − z 0 ∣ , h ( α , r ) = 1 / ( α + r ) r=|\textbf z-\textbf z_0|,h(α,r)=1/(α+r) r=zz0,h(α,r)=1/(α+r),映射的参数为 λ = { z 0 ∈ R D , α ∈ R , β ∈ R } λ=\{\textbf z_0∈\mathbb R^D,α∈\mathbb R,β∈\mathbb R\} λ={z0RD,αR,βR}。该变换同样允许行列式的计算是线性的。它围绕参考点应用径向收缩和扩展,因此称为radial flows。我们在图1中显示了两个不同flow在以均匀和高斯为初始分布时收缩和扩展所带来的影响。这种可视化表明,我们可以通过应用两个连续的转换来将球形高斯分布转换为双峰分布。
  注意到等式(10)或(14)的所有函数都是可逆的。我们在附录中讨论了可逆的条件以及如何以数值稳定的方式满足它们。

4.2 Flow-Based Free Energy Bound

4.3 Algorithm Summary and Complexity

5.Alternative Flow-based Posteriors

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值