机器学习笔记十二

第十三讲:最大期望算法及其应用、因子分析模型

上一讲我们介绍了无监督学习算法,现在使用的训练集都是没有类标记的数据集 { x ( 1 ) , ⋯   , x ( m ) } \left\{x^{(1)},\cdots,x^{(m)}\right\} {x(1),,x(m)}。我们想要对样本进行分类并得到每个类型的样本的的密度分布。于是,我们引入潜在变量 z z z,用它来表示样本所属的分布,并将数据建模为 P ( x ) = ∑ z P ( x ∣ z ) P ( z ) \displaystyle P(x)=\sum_zP(x\mid z)P(z) P(x)=zP(xz)P(z)。在前半节课的介绍中,我们假设数据服从不同的高斯分布,并使用高斯混合模型来对样本建模,也就是令 z ∼ M u l t i n o m i a l ( ϕ ) z\sim\mathrm{Multinomial}(\phi) zMultinomial(ϕ),令 x ∣ z = j ∼ N ( μ j , Σ j ) x\mid z=j\sim\mathcal N\left(\mu_j,\varSigma_j\right) xz=jN(μj,Σj),使用EM算法的步骤迭代求出参数。

后半节课介绍了泛化的EM算法,该算法的目标函数为 max ⁡ θ ∑ i log ⁡ p ( x ( i ) ; θ ) \displaystyle\operatorname*{max}_\theta\sum_i\log p\left(x^{(i)};\theta\right) θmaxilogp(x(i);θ),因为潜在变量的存在,目标函数又可以表示为 max ⁡ θ ∑ i log ⁡ ∑ z ( i ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) \displaystyle\max_\theta\sum_i\log\sum_z^{(i)}\log p\left(x^{(i)},z^{(i)};\theta\right) θmaxilogz(i)logp(x(i),z(i);θ)。接下来就是使用E步骤和M步骤迭代求参数了:

  • E步骤: Q i ( z ( i ) ) : = p ( z ( i ) ∣ x ( i ) ; θ ) Q_i\left(z^{(i)}\right):=p\left(z^{(i)}\mid x^{(i)};\theta\right) Qi(z(i)):=p(z(i)x(i);θ),构建目标函数 l \mathscr l l的下界;
  • M步骤: θ : = arg ⁡ max ⁡ θ ∑ i ∑ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) Q i ( z ( i ) ) ⏟ lower-bound function \displaystyle\theta:=\arg\max_\theta\underbrace{\sum_i\sum_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta\right)}{Q_i\left(z^{(i)}\right)}}_\textrm{lower-bound function} θ:=argθmaxlower-bound function iz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);θ),最大化这个下界函数,求得新的参数。(如果把右边这个下界看做关于 θ \theta θ的函数,那么这个下界就是 l \mathscr l l的下界函数。)

再介绍一下我们为什么要使用EM算法:因为直接最大化 l \mathscr l l,对参数求偏导、再将偏导置为零求参数的计算过程,会由于潜在变量的存在而难以求得解析解;而EM算法M步骤中的最大化的式子通常都是很容易由偏导解出解析解的形式。

接着上一讲继续介绍EM算法。

怎么能确定算法一定收敛呢?设 θ ( t ) \theta^{(t)} θ(t) θ ( t + 1 ) \theta^{(t+1)} θ(t+1)是EM算法两次成功迭代得到的参数,只要证明 l ( θ ( t ) ) ≤ l ( θ ( t + 1 ) ) \mathscr l\left(\theta^{(t)}\right)\leq\mathscr l\left(\theta^{(t+1)}\right) l(θ(t))l(θ(t+1)),就可以说明EM算法会随着迭代使目标函数值单调增加。而证明的关键在于 Q i Q_i Qi的选择。当EM算法从参数 θ ( t ) \theta^{(t)} θ(t)开始迭代时,我们会选择 Q i ( t ) ( z ( i ) ) : = p ( z ( i ) ∣ x ( i ) ; θ ( t ) ) Q_i^{(t)}\left(z^{(i)}\right):=p\left(z^{(i)}\mid x^{(i)};\theta^{(t)}\right) Qi(t)(z(i)):=p(z(i)x(i);θ(t)),在上一讲最后,我们看到这个选择保证了延森不等式成立,并且使上一讲中的 ( 3 ) (3) (3)式取等号,而因为 l ( θ ( t ) ) = ∑ i ∑ z ( i ) Q i ( t ) ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ( t ) ) Q i ( t ) ( z ( i ) ) \displaystyle\mathscr l\left(\theta^{(t)}\right)=\sum_i\sum_{z^{(i)}}Q_i^{(t)}\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta^{(t)}\right)}{Q_i^{(t)}\left(z^{(i)}\right)} l(θ(t))=iz(i)Qi(t)(z(i))logQi(t)(z(i))p(x(i),z(i);θ(t)),则最大化等号右边的部分就可以得到参数 θ ( t + 1 ) \theta^{(t+1)} θ(t+1)。因此:

l ( θ ( t + 1 ) ) ≥ ∑ i ∑ z ( i ) Q i ( t ) ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ( t + 1 ) ) Q i ( t ) ( z ( i ) ) ≥ ∑ i ∑ z ( i ) Q i ( t ) ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ( t ) ) Q i ( t ) ( z ( i ) ) = l ( θ ( t ) ) \begin{align} \mathscr l\left(\theta^{(t+1)}\right)&\geq\sum_i\sum_{z^{(i)}}Q_i^{(t)}\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta^{(t+1)}\right)}{Q_i^{(t)}\left(z^{(i)}\right)}\tag{4}\\ &\geq\sum_i\sum_{z^{(i)}}Q_i^{(t)}\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta^{(t)}\right)}{Q_i^{(t)}\left(z^{(i)}\right)}\tag{5}\\ &=\mathscr l\left(\theta^{(t)}\right)\tag{6} \end{align} l(θ(t+1))iz(i)Qi(t)(z(i))logQi(t)(z(i))p(x(i),z(i);θ(t+1))iz(i)Qi(t)(z(i))logQi(t)(z(i))p(x(i),z(i);θ(t))=l(θ(t))(4)(5)(6)

  • ( 4 ) (4) (4)式来自 l ( θ ) ≥ ∑ i ∑ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) Q i ( z ( i ) ) \displaystyle\mathscr l(\theta)\geq\sum_i\sum_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta\right)}{Q_i\left(z^{(i)}\right)} l(θ)iz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);θ),不等式对任意 Q i Q_i Qi θ \theta θ均成立,而对于 Q i = Q i ( t ) , θ = θ ( t + 1 ) Q_i=Q_i^{(t)},\theta=\theta^{(t+1)} Qi=Qi(t),θ=θ(t+1)时,则可以取到等号。
  • 而要得到 ( 5 ) (5) (5)式,需要利用 θ ( t + 1 ) \theta^{(t+1)} θ(t+1)的定义式: a r g max ⁡ θ ∑ i ∑ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) Q i ( z ( i ) ) \displaystyle\mathrm{arg}\operatorname*{max}_\theta\sum_i\sum_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta\right)}{Q_i\left(z^{(i)}\right)} argθmaxiz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);θ),正是这个式子使以 θ ( t + 1 ) \theta^{(t+1)} θ(t+1)为参数的目标函数总是等于或大于以 θ ( t ) \theta^{(t)} θ(t)为参数的目标函数。
  • ( 6 ) (6) (6)式已经在前面出现过,为了在参数为 θ ( t ) \theta^{(t)} θ(t)时,能够使延森不等式取到等号而选择的 Q i ( t ) Q_i^{(t)} Qi(t)

因此,EM算法能够使似然函数单调收敛。在EM算法的描述中,我们提到“运行直到收敛”,依照上面的推导,一个合理的收敛检测可以是:检查两次成功迭代后 l ( θ ) \mathscr l(\theta) l(θ)的增量,如果增量小于某个阈值,我们就可以说“因为EM算法增长已然很慢了,所以算法已经收敛”。

**注意:**如果我们定义 J ( Q , θ ) = ∑ i ∑ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) Q i ( z ( i ) ) \displaystyle J(Q,\theta)=\sum_i\sum_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta\right)}{Q_i\left(z^{(i)}\right)} J(Q,θ)=iz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);θ),那么从前面的推导中可以得出 l ( θ ) ≤ J ( Q , θ ) \mathscr l(\theta)\leq J(Q,\theta) l(θ)J(Q,θ),则EM算法可以看做是函数J上的坐标上升过程,而E步骤就求 J J J关于 Q Q Q的函数的最大值,而M步骤就是求 J J J关于 θ \theta θ的函数的最大值。

3. 再看高斯混合模型

有了一般化定义的EM算法,我们重新审视上一讲中的高斯混合模型,拟合模型中的参数 ϕ , μ , Σ \phi,\mu,\varSigma ϕ,μ,Σ。为了简洁一些,我们只看M步骤中关于 ϕ , μ j \phi,\mu_j ϕ,μj的参数更新过程,将 Σ j \varSigma_j Σj的更新留给读者考虑。

E步骤很简单,根据上面的推导,有:

w j ( i ) = Q i ( z ( i ) = j ) = P ( z ( i ) = j ∣ x ( i ) ; ϕ , μ , Σ ) = p ( x ( i ) ∣ z ( i ) = j ; μ , Σ ) p ( z ( i ) = j ; ϕ ) ∑ i = 1 k p ( x ( i ) ∣ z ( i ) = l ; μ , Σ ) p ( z ( i ) = l ; ϕ ) w_j^{(i)}=Q_i\left(z^{(i)}=j\right)=P\left(z^{(i)}=j\mid x^{(i)};\phi,\mu,\varSigma\right)=\frac{p\left(x^{(i)}\mid z^{(i)}=j;\mu,\varSigma\right)p\left(z^{(i)}=j;\phi\right)}{\sum_{i=1}^kp\left(x^{(i)}\mid z^{(i)}=l;\mu,\varSigma\right)p\left(z^{(i)}=l;\phi\right)} wj(i)=Qi(z(i)=j)=P(z(i)=jx(i);ϕ,μ,Σ)=i=1kp(x(i)z(i)=l;μ,Σ)p(z(i)=l;ϕ)p(x(i)z(i)=j;μ,Σ)p(z(i)=j;ϕ)

这里的 Q i ( z ( i ) = j ) Q_i\left(z^{(i)}=j\right) Qi(z(i)=j)表示在 Q i Q_i Qi分布中 z ( i ) z^{(i)} z(i) j j j的概率。

接下来是M步骤,我们需要最大化关于参数 ϕ , μ , Σ \phi,\mu,\varSigma ϕ,μ,Σ的下界函数:

∑ i = 1 m ∑ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; ϕ , μ , Σ ) Q i ( z ( i ) ) = ∑ i = 1 m ∑ j = 1 k Q i ( z ( i ) = j ) log ⁡ p ( x ( i ) ∣ z ( i ) = j ; μ , Σ ) p ( z ( i ) = j ; ϕ ) Q i ( z ( i ) = j ) = ∑ i = 1 m ∑ j = 1 k w j ( i ) log ⁡ 1 ( 2 π ) n ∣ Σ j ∣ exp ⁡ ( − 1 2 ( x ( i ) − μ j ) T Σ j − 1 ( x ( i ) − μ j ) ) ⋅ ϕ j w j ( i ) \begin{align} \sum_{i=1}^m\sum_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\phi,\mu,\varSigma\right)}{Q_i\left(z^{(i)}\right)}&=\sum_{i=1}^m\sum_{j=1}^kQ_i\left(z^{(i)}=j\right)\log\frac{p\left(x^{(i)}\mid z^{(i)}=j;\mu,\varSigma\right)p\left(z^{(i)}=j;\phi\right)}{Q_i\left(z^{(i)}=j\right)}\\ &=\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}\log\frac{\frac{1}{\sqrt{(2\pi)^n\left\lvert\varSigma_j\right\rvert}}\exp\left(-\frac{1}{2}\left(x^{(i)}-\mu_j\right)^T\varSigma_j^{-1}\left(x^{(i)}-\mu_j\right)\right)\cdot\phi_j}{w_j^{(i)}} \end{align} i=1mz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);ϕ,μ,Σ)=i=1mj=1kQi(z(i)=j)logQi(z(i)=j)p(x(i)z(i)=j;μ,Σ)p(z(i)=j;ϕ)=i=1mj=1kwj(i)logwj(i)(2π)nΣj 1exp(21(x(i)μj)TΣj1(x(i)μj))ϕj

首先以 μ l \mu_l μl为变量做最大化,如果我们对 μ l \mu_l μl求偏导,则有:

∇ μ l ∑ i = 1 m ∑ j = 1 k w j ( i ) log ⁡ 1 ( 2 π ) n ∣ Σ j ∣ exp ⁡ ( − 1 2 ( x ( i ) − μ j ) T Σ j − 1 ( x ( i ) − μ j ) ) ⋅ ϕ j w j ( i ) = − ∇ μ l ∑ i = 1 m ∑ j = 1 k w j ( i ) 1 2 ( x ( i ) − μ j ) T Σ j − 1 ( x ( i ) − μ j ) = 1 2 ∑ i = 1 m w l ( i ) ∇ μ l 2 μ l T Σ l − 1 x ( i ) − μ l T Σ l − 1 μ l = ∑ i = 1 m w l ( i ) ( Σ l − 1 x ( i ) − Σ l − 1 μ l ) \begin{align} \nabla_{\mu_l}\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}\log\frac{\frac{1}{\sqrt{(2\pi)^n\left\lvert\varSigma_j\right\rvert}}\exp\left(-\frac{1}{2}\left(x^{(i)}-\mu_j\right)^T\varSigma_j^{-1}\left(x^{(i)}-\mu_j\right)\right)\cdot\phi_j}{w_j^{(i)}}&=-\nabla_{\mu_l}\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}\frac{1}{2}\left(x^{(i)}-\mu_j\right)^T\varSigma_j^{-1}\left(x^{(i)}-\mu_j\right)\\ &=\frac{1}{2}\sum_{i=1}^mw_l^{(i)}\nabla_{\mu_l}2\mu_l^T\varSigma_l^{-1}x^{(i)}-\mu_l^T\varSigma_l^{-1}\mu_l\\ &=\sum_{i=1}^mw_l^{(i)}\left(\varSigma_l^{-1}x^{(i)}-\varSigma_l^{-1}\mu_l\right) \end{align} μli=1mj=1kwj(i)logwj(i)(2π)nΣj 1exp(21(x(i)μj)TΣj1(x(i)μj))ϕj=μli=1mj=1kwj(i)21(x(i)μj)TΣj1(x(i)μj)=21i=1mwl(i)μl2μlTΣl1x(i)μlTΣl1μl=i=1mwl(i)(Σl1x(i)Σl1μl)

将式子置为零再解出 μ l \mu_l μl,就得到了参数 μ \mu μ的更新规则:

μ l : = ∑ i = 1 m w l ( i ) x ( i ) ∑ i = 1 m w ( i ) \mu_l:=\frac{\sum_{i=1}^mw_l^{(i)}x^{(i)}}{\sum_{i=1}^mw^{(i)}} μl:=i=1mw(i)i=1mwl(i)x(i)

这就是上一讲中参数 μ \mu μ更新规则的由来。

再来推导一个M步骤中的参数 ϕ \phi ϕ的更新规则。要对 ϕ \phi ϕ求偏导,则将原式中含有 ϕ \phi ϕ的项提出来,现在需要最大化: ∑ i = 1 m ∑ j = 1 k w j ( i ) log ⁡ ϕ j \displaystyle\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}\log\phi_j i=1mj=1kwj(i)logϕj。但是要注意,因为 ϕ j = p ( z ( i ) = j ; ϕ ) \phi_j=p\left(z^{(i)}=j;\phi\right) ϕj=p(z(i)=j;ϕ)是一个概率表达式,所以参数还有一个限制条件—— ϕ j \phi_j ϕj之和为 1 1 1。为了处理限制条件 ∑ j = 1 k ϕ j = 1 \displaystyle\sum_{j=1}^k\phi_j=1 j=1kϕj=1,我们构造拉格朗日算子:

L ( ϕ ) = ∑ i = 1 m ∑ j = 1 k w j ( i ) log ⁡ ϕ j + β ( ∑ j = 1 k ϕ j − 1 ) \mathcal L(\phi)=\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}\log\phi_j+\beta\left(\sum_{j=1}^k\phi_j-1\right) L(ϕ)=i=1mj=1kwj(i)logϕj+β(j=1kϕj1)

式中的 β \beta β是拉格朗日乘数(我们不需要担心 ϕ j ≥ 0 \phi_j\geq0 ϕj0的限制条件,在后面会看到,从这里推导出的结论将恰好能够保证该条件成立)。求偏导得:

∂ ∂ ϕ j L ( ϕ ) = ∑ i = 1 m w j ( i ) ϕ j + β \frac{\partial}{\partial\phi_j}\mathcal L(\phi)=\sum_{i=1}^m\frac{w_j^{(i)}}{\phi_j}+\beta ϕjL(ϕ)=i=1mϕjwj(i)+β

将偏导置为零得到 ϕ j = ∑ i = 1 m w j ( i ) − β \displaystyle\phi_j=\frac{\sum_{i=1}^mw_j^{(i)}}{-\beta} ϕj=βi=1mwj(i),也就是说 ϕ j ∝ ∑ i = 1 m w j ( i ) \phi_j\propto\sum_{i=1}^mw_j^{(i)} ϕji=1mwj(i)。由于 ∑ j ϕ j = 1 = ∑ j = 1 k ∑ i = 1 m w j ( i ) − β = ∑ i = 1 m ∑ j = 1 k w j ( i ) − β = m − β    ⟹    − β = m \displaystyle\sum_j\phi_j=1=\sum_{j=1}^k\frac{\sum_{i=1}^mw_j^{(i)}}{-\beta}=\frac{\sum_{i=1}^m\sum_{j=1}^kw_j^{(i)}}{-\beta}=\frac{m}{-\beta}\implies-\beta=m jϕj=1=j=1kβi=1mwj(i)=βi=1mj=1kwj(i)=βmβ=m(因为 w j ( i ) = Q i ( z ( i ) = j ) w_j^{(i)}=Q_i\left(z^{(i)}=j\right) wj(i)=Qi(z(i)=j)是一个概率密度,所以有 ∑ j w j ( i ) = 1 \sum_jw_j^{(i)}=1 jwj(i)=1)。于是我们就得到了参数 ϕ \phi ϕ的更新规则:

ϕ j : = 1 m ∑ i = 1 m w j ( i ) \phi_j:=\frac{1}{m}\sum_{i=1}^mw_j^{(i)} ϕj:=m1i=1mwj(i)

4. 再看混合朴素贝叶斯模型

简要介绍一下前面的(第五讲)朴素贝叶斯模型在EM算法下的应用。

  • 给定的训练集为 { x ( 1 ) , ⋯   , x ( m ) } , x ( i ) ∈ { 0 , 1 } n \left\{x^{(1)},\cdots,x^{(m)}\right\},x^{(i)}\in\{0,1\}^n {x(1),,x(m)},x(i){0,1}n,即每个样本都是一个 n n n维位向量,比如 x j ( i ) = 1 { 单词 j 是否出现在文档中 } x_j^{(i)}=1\{\textrm{单词}j\textrm{是否出现在文档中}\} xj(i)=1{单词j是否出现在文档中}
  • 模型中有潜在变量 z ( i ) ∈ { 0 , 1 } z^{(i)}\in\{0,1\} z(i){0,1}(也就是说在本例中我们希望找到两个簇,而如果希望有更多分类的话可以继续扩展), z ( i ) ∼ B e r n o u l l i ( ϕ ) z^{(i)}\sim\mathrm{Bernoulli}(\phi) z(i)Bernoulli(ϕ)
  • 同前面讲过的朴素贝叶斯模型一样,有 p ( x ( i ) ∣ z ( i ) ) = ∏ j = 1 n p ( x j ( i ) ∣ z ( i ) ) \displaystyle p\left(x^{(i)}\mid z^{(i)}\right)=\prod_{j=1}^np\left(x_j^{(i)}\mid z^{(i)}\right) p(x(i)z(i))=j=1np(xj(i)z(i)),特别的有 p ( x j ( i ) = 1 ∣ z ( i ) = 0 ) = ϕ j ∣ z = 0 p\left(x_j^{(i)}=1\mid z^{(i)}=0\right)=\phi_{j\mid z=0} p(xj(i)=1z(i)=0)=ϕjz=0

如果把上面条件中的 z z z换成 y y y,就和前面介绍的朴素贝叶斯模型一样了。有了这些条件,应用EM算法:

  • E步骤: w ( i ) : = p ( z ( i ) = 1 ∣ x ( i ) ; ϕ j ∣ z , ϕ ) w^{(i)}:=p\left(z^{(i)}=1\mid x^{(i)};\phi_{j\mid z},\phi\right) w(i):=p(z(i)=1x(i);ϕjz,ϕ)
  • M步骤:

ϕ j ∣ z = 1 = ∑ i = 1 m w ( i ) 1 { x j ( i ) = 1 } ∑ i = 1 m w ( i ) ϕ j ∣ z = 0 = ∑ i = 1 m ( 1 − w ( i ) ) 1 { x j ( i ) = 1 } ∑ i = 1 m w ( i ) ϕ z = ∑ i = 1 m w ( i ) m \begin{align} \phi_{j\mid z=1}&=\frac{\sum_{i=1}^mw^{(i)}1\left\{x_j^{(i)}=1\right\}}{\sum_{i=1}^mw^{(i)}}\\ \phi_{j\mid z=0}&=\frac{\sum_{i=1}^m\left(1-w^{(i)}\right)1\left\{x_j^{(i)}=1\right\}}{\sum_{i=1}^mw^{(i)}}\\ \phi_z&=\frac{\sum_{i=1}^mw^{(i)}}{m} \end{align} ϕjz=1ϕjz=0ϕz=i=1mw(i)i=1mw(i)1{xj(i)=1}=i=1mw(i)i=1m(1w(i))1{xj(i)=1}=mi=1mw(i)

第十部分:因子分析(Factor analysis)

当我们使用高斯混合模型对数据集 x ( i ) ∈ R n x^{(i)}\in\mathbb R^n x(i)Rn建模时,可以使用EM算法拟合模型求出参数。在这种情形下,我们通常都有足够的样本,可以用多个高斯分布将它们分开。这也就是训练样本数量 m m m远大于数据维数 n n n的情形。

现在,来考虑另一种情形——当 n ≫ m n\gg m nm时。在这种情形下,因为样本太少,即使只用一个高斯分布也难以对数据进行建模,更别说用多个高斯分布将数据分开了。特别是因为样本短缺,仅 m m m个样本在 R n \mathbb R^n Rn空间中只能张成一个维度很低的子空间,如果此时使用高斯分布建模,并使用最大似然估计对期望和协方差做出估计时:

μ = 1 m ∑ i = 1 m x ( i ) Σ = 1 m ∑ i = 1 m ( x ( i ) − μ ) ( x ( i ) − μ ) T \begin{align} \mu&=\frac{1}{m}\sum_{i=1}^mx^{(i)}\\ \varSigma&=\frac{1}{m}\sum_{i=1}^m\left(x^{(i)}-\mu\right)\left(x^{(i)}-\mu\right)^T \end{align} μΣ=m1i=1mx(i)=m1i=1m(x(i)μ)(x(i)μ)T

就会发现, Σ \varSigma Σ是一个奇异矩阵,也就是说其逆 Σ − 1 \varSigma^{-1} Σ1不存在,则 1 ∣ Σ ∣ = 1 0 \displaystyle\frac{1}{\sqrt{\left\lvert\varSigma\right\rvert}}=\frac{1}{0} Σ 1=01,而这几个量在我们计算多元高斯分布的概率密度时都需要使用。换一种方式描述这种困境,我们需要用某个高斯分布拟合数据集,而这个高斯分布的参数的最大似然估计的所有可能性将会落在一个由样本数据张成的仿射空间中(对某些满足 ∑ i = 1 m α i = 1 \sum_{i=1}^m\alpha_i=1 i=1mαi=1 α i \alpha_i αi,能够使数据集中的样本 x x x满足 x = ∑ i = 1 m α i x ( i ) x=\sum_{i=1}^m\alpha_ix^{(i)} x=i=1mαix(i)),这也意味着其协方差矩阵是奇异的。

更普遍的说,如果样本数量 m m m没有比特征数量 n n n大出合理的倍数,则得到的期望和协方差参数都会很差。尽管如此,我们依然希望使用一个合理的高斯模型拟合数据集,也许能够得到一些有趣的关于数据的协方差矩阵,那么该怎么做呢?

在下一节,我们会介绍两种加在 Σ \varSigma Σ上的约束,以保证它可逆。其中一种允许我们用很小的数据集拟合 Σ \varSigma Σ,不过这两种方法都不能很好的解决我们的问题;然后讨论一下某些会在在后面用到的高斯分布的性质,特别是如何求高斯分布的边缘分布及条件分布;最后将介绍因子分析模型,并对它应用EM算法。

1. Σ \varSigma Σ的约束条件

如果没有足够的样本来拟合一个完整的协方差矩阵,我们就可以考虑在其矩阵空间上加一些约束。比如说,我们可以选择拟合一个对角矩阵形式的 Σ \varSigma Σ。在这种情形下,容易验证对角矩阵 Σ \varSigma Σ的最大似然估计满足 Σ j j = 1 m ∑ i = 1 m ( x j ( i ) − μ j ) 2 \displaystyle\varSigma_{jj}=\frac{1}{m}\sum_{i=1}^m\left(x_j^{(i)}-\mu_j\right)^2 Σjj=m1i=1m(xj(i)μj)2,其中 Σ j j \varSigma_{jj} Σjj就是样本数据第 j j j个分量的方差。

回忆前面(第五讲)介绍的高斯分布概率密度的等高线图,普通的 Σ \varSigma Σ对应的等高线图的主轴大都是倾斜的,而当 Σ \varSigma Σ是一个对角矩阵时,其等高线图的主轴是平行于坐标轴的。

有时,我们会加上更严格的约束条件,除了要令 Σ \varSigma Σ是对角矩阵外,还要令其对角线元素是相等的。在这种情形下,我们令 Σ = σ 2 I \varSigma=\sigma^2I Σ=σ2I,其中的 σ 2 \sigma^2 σ2是需要估计的参数: σ 2 = 1 m n ∑ j = 1 n ∑ i = 1 m ( x j ( i ) − μ j ) 2 \displaystyle\sigma^2=\frac{1}{mn}\sum_{j=1}^n\sum_{i=1}^m\left(x_j^{(i)}-\mu_j\right)^2 σ2=mn1j=1ni=1m(xj(i)μj)2。在这种情形下的高斯分布概率密度的等高线图将是正圆形(在二维情况下,而非普通 Σ \varSigma Σ下的椭圆;在高维情况下则是球面或超球面)。

如果我们要用数据集拟合一个完整的、不加约束条件的协方差矩阵 Σ \varSigma Σ,则至少要满足 m ≥ n + 1 m\geq n+1 mn+1,以保证 Σ \varSigma Σ的最大似然估计是非奇异矩阵。在上面的两种情形下,只要 m ≥ 2 m\geq2 m2,我们得到的 Σ \varSigma Σ就是非奇异的。

不过,将 Σ \varSigma Σ限制为对角矩阵也就意味着样本的任意两个分量 x i , x j x_i,x_j xi,xj之间是无关且独立的。通常,在不加约束条件时,通过数据拟合得到的 Σ \varSigma Σ将捕获到一些关于数据的有趣的潜在联系,而我们使用上面任意一种约束后,就相当于强行抹掉了样本各分量之间的联系。在后面对因子分析模型的介绍中,我们将在对角矩阵约束之外添加更多参数,用以捕获数据间的联系,但同样不会拟合一个完整的协方差矩阵。

2. 高斯分布的边缘分布及条件分布

在介绍因子分析模型之前,我们先了解一下计算多元高斯分布下随机变量的边缘分布及条件分布的计算。

  • 设有向量形式的随机变量 x = [ x 1 x 2 ] ,   x 1 ∈ R r , x 2 ∈ R s , x ∈ R r + s x=\begin{bmatrix}x_1\\x_2\end{bmatrix},\ x_1\in\mathbb R^r,x_2\in\mathbb R^s,x\in\mathbb R^{r+s} x=[x1x2], x1Rr,x2Rs,xRr+s
  • x ∼ N ( μ , Σ ) x\sim\mathcal N\left(\mu,\varSigma\right) xN(μ,Σ),其中 μ = [ μ 1 μ 2 ] ,   Σ = [ Σ 11 Σ 12 Σ 21 Σ 22 ] ,   μ 1 ∈ R r , μ 2 ∈ R s , Σ 11 ∈ R r × r , Σ 12 ∈ R r × s , Σ 21 ∈ R s × r , Σ 22 ∈ R s × s \mu=\begin{bmatrix}\mu_1\\\mu_2\end{bmatrix},\ \varSigma=\begin{bmatrix}\varSigma_{11}&\varSigma_{12}\\\varSigma_{21}&\varSigma_{22}\end{bmatrix},\ \mu_1\in\mathbb R^r,\mu_2\in\mathbb R^s,\varSigma_{11}\in\mathbb R^{r\times r},\varSigma_{12}\in\mathbb R^{r\times s},\varSigma_{21}\in\mathbb R^{s\times r},\varSigma_{22}\in\mathbb R^{s\times s} μ=[μ1μ2], Σ=[Σ11Σ21Σ12Σ22], μ1Rr,μ2Rs,Σ11Rr×r,Σ12Rr×s,Σ21Rs×r,Σ22Rs×s,而且协方差矩阵是对称的,所以有 Σ 21 = Σ 12 T \varSigma_{21}=\varSigma_{12}^T Σ21=Σ12T

在上面的假设下, x 1 , x 2 x_1,x_2 x1,x2就是多元高斯分布。如何计算 x 1 x_1 x1的边缘分布?不难发现 E [ x 1 ] = μ 1 \mathrm E[x_1]=\mu_1 E[x1]=μ1 C o v ( x 1 ) = E [ ( x 1 − μ 1 ) ( x 1 − μ 1 ) T ] = Σ 11 \mathrm{Cov}\left(x_1\right)=\mathrm E\left[\left(x_1-\mu_1\right)\left(x_1-\mu_1\right)^T\right]=\varSigma_{11} Cov(x1)=E[(x1μ1)(x1μ1)T]=Σ11。可以亲自验证 x 1 x_1 x1的协方差,使用 x 1 , x 2 x_1,x_2 x1,x2间的协方差定义式:

C o v = Σ = [ Σ 11 Σ 12 Σ 21 Σ 22 ] = E [ ( x − μ ) ( x − μ ) T ] = E [ ( x 1 − μ 1 x 2 − μ 2 ) ( x 1 − μ 1 x 2 − μ 2 ) T ] = E [ ( x 1 − μ 1 ) ( x 1 − μ 1 ) T ( x 1 − μ 1 ) ( x 2 − μ 2 ) T ( x 2 − μ 2 ) ( x 1 − μ 1 ) T ( x 2 − μ 2 ) ( x 2 − μ 2 ) T ] \begin{align} \mathrm{Cov}&=\varSigma\\ &=\begin{bmatrix}\varSigma_{11}&\varSigma_{12}\\\varSigma_{21}&\varSigma_{22}\end{bmatrix}\\ &=\mathrm E\left[\left(x-\mu\right)\left(x-\mu\right)^T\right]\\ &=\mathrm E\begin{bmatrix}\begin{pmatrix}x_1-\mu_1\\x_2-\mu_2\end{pmatrix}\begin{pmatrix}x_1-\mu_1\\x_2-\mu_2\end{pmatrix}^T\end{bmatrix}\\ &=\mathrm E\begin{bmatrix}\left(x_1-\mu_1\right)\left(x_1-\mu_1\right)^T&\left(x_1-\mu_1\right)\left(x_2-\mu_2\right)^T\\\left(x_2-\mu_2\right)\left(x_1-\mu_1\right)^T&\left(x_2-\mu_2\right)\left(x_2-\mu_2\right)^T\end{bmatrix} \end{align} Cov=Σ=[Σ11Σ21Σ12Σ22]=E[(xμ)(xμ)T]=E[(x1μ1x2μ2)(x1μ1x2μ2)T]=E[(x1μ1)(x1μ1)T(x2μ2)(x1μ1)T(x1μ1)(x2μ2)T(x2μ2)(x2μ2)T]

多元高斯分布的边缘分布也是高斯分布,则随机变量 x 1 x_1 x1的边缘分布为 x 1 ∼ N ( μ 1 , Σ 11 ) x_1\sim\mathcal N\left(\mu_1,\varSigma_{11}\right) x1N(μ1,Σ11)

那么,在给定 x 2 x_2 x2的条件下 x 1 x_1 x1的条件分布又该怎么计算?根据多元高斯分布的定义有 x 1 ∣ x 2 ∼ N ( μ 1 ∣ 2 , Σ 1 ∣ 2 ) x_1\mid x_2\sim\mathcal N\left(\mu_{1\mid2},\varSigma_{1\mid2}\right) x1x2N(μ12,Σ12),其中:

μ 1 ∣ 2 = μ 1 + Σ 12 Σ 22 − 2 ( x 2 − μ 2 ) Σ 1 ∣ 2 = Σ 11 − Σ 12 Σ 22 − 1 Σ 21 \begin{align} \mu_{1\mid2}&=\mu_1+\varSigma_{12}\varSigma_{22}^{-2}\left(x_2-\mu_2\right)\tag{1}\\ \varSigma_{1\mid2}&=\varSigma_{11}-\varSigma_{12}\varSigma_{22}^{-1}\varSigma_{21}\tag{2} \end{align} μ12Σ12=μ1+Σ12Σ222(x2μ2)=Σ11Σ12Σ221Σ21(1)(2)

在求解因子分析模型时,需要经常使用这些式子计算边缘分布和条件分布。

3. 因子分析模型

在因子分析模型中,我们假设随机变量 ( x , z ) (x,z) (x,z)上的联合分布如下(其中 z ∈ R k z\in\mathbb R^k zRk是潜在随机变量):

z ∼ N ( 0 , I ) x ∣ z ∼ N ( μ + Λ z , Ψ ) \begin{align} z&\sim\mathcal N(0,I)\\ x\mid z&\sim\mathcal N(\mu+\varLambda z,\varPsi) \end{align} zxzN(0,I)N(μ+Λz,Ψ)

模型的参数为:

  • μ ∈ R n \mu\in\mathbb R^n μRn
  • 矩阵 Λ ∈ R n × k \varLambda\in\mathbb R^{n\times k} ΛRn×k
  • Ψ ∈ R n × n \varPsi\in\mathbb R^{n\times n} ΨRn×n,并且是一个对角矩阵。

而通常情况下,我们选择会选择比 n n n小的数作为 k k k的值。

因此,我们设想数据 x ( i ) x^{(i)} x(i)来自源于 k k k维多元高斯分布 z ( i ) z^{(i)} z(i)的一次抽样;然后,通过 μ + Λ z ( i ) \mu+\varLambda z^{(i)} μ+Λz(i)式将上一步的抽样映射到 R n \mathbb R^n Rn的一个仿射空间中;最后,通过向 μ + Λ z ( i ) \mu+\varLambda z^{(i)} μ+Λz(i)添加协方差噪音 Ψ \varPsi Ψ,最终得到 x ( i ) x^{(i)} x(i)

等价的,我们也可以如下定义因子分析模型模型:

z ∼ N ( 0 , I ) ϵ ∼ N ( 0 , Ψ ) x = μ + Λ z + ϵ \begin{align} z&\sim\mathcal N(0,I)\\ \epsilon&\sim\mathcal N(0,\varPsi)\\ x&=\mu+\varLambda z+\epsilon \end{align} zϵxN(0,I)N(0,Ψ)=μ+Λz+ϵ

其中 z , ϵ z,\epsilon z,ϵ是相互独立的, ϵ \epsilon ϵ同样是噪音项。

现在我们来看看我们的模型究竟定义了一个怎样分布。我们的随机变量 z z z x x x服从联合高斯分布 [ z x ] ∼ N ( μ z x , Σ ) \begin{bmatrix}z\\x\end{bmatrix}\sim\mathcal N\left(\mu_{zx},\varSigma\right) [zx]N(μzx,Σ),现在需要知道 μ z x \mu_{zx} μzx Σ \varSigma Σ

我们从 z ∼ N ( 0 , I ) z\sim\mathrm N(0,I) zN(0,I)知道 E [ z ] = 0 \mathrm E[z]=0 E[z]=0,于是可以算出:

E [ x ] = E [ μ + Λ z + ϵ ] = μ + Λ E [ z ] + E [ ϵ ] = μ \begin{align} \mathrm E[x]&=\mathrm E[\mu+\varLambda z+\epsilon]\\ &=\mu+\varLambda\mathrm E[z]+\mathrm E[\epsilon]\\ &=\mu \end{align} E[x]=E[μ+Λz+ϵ]=μ+ΛE[z]+E[ϵ]=μ

综合上面的两个期望能够得到 μ z x = [ 0 ⃗ μ ] \mu_{zx}=\begin{bmatrix}\vec0\\\mu\end{bmatrix} μzx=[0 μ]

接下来要找到 Σ \varSigma Σ需要计算(协方差矩阵是对称矩阵):

  • Σ z z = E [ ( z − E [ z ] ) ( z − E [ z ] ) T ] \varSigma_{zz}=\mathrm E\left[(z-\mathrm E[z])(z-\mathrm E[z])^T\right] Σzz=E[(zE[z])(zE[z])T](参考上一节协方差推导结果 Σ \varSigma Σ左上角元素);
  • Σ z x = E [ ( z − E [ z ] ) ( x − E [ x ] ) T ] \varSigma_{zx}=\mathrm E\left[(z-\mathrm E[z])(x-\mathrm E[x])^T\right] Σzx=E[(zE[z])(xE[x])T](参考上一节协方差推导结果 Σ \varSigma Σ右上角元素);
  • Σ x x = E [ ( x − E [ x ] ) ( x − E [ x ] ) T ] \varSigma_{xx}=\mathrm E\left[(x-\mathrm E[x])(x-\mathrm E[x])^T\right] Σxx=E[(xE[x])(xE[x])T](参考上一节协方差推导结果 Σ \varSigma Σ右下角元素)。

不过由于 z ∼ N ( 0 , I ) z\sim\mathcal N(0,I) zN(0,I),我们可以化简 Σ = C o v ( z ) = I \varSigma=\mathrm{Cov}(z)=I Σ=Cov(z)=I,也可以化简 Σ z x \varSigma_{zx} Σzx

E [ ( z − E [ z ] ) ( x − E [ x ] ) T ] = E [ z ( μ + Λ z + ϵ − μ ) T ] = E [ z z T ] Λ T + E [ z ϵ T ] = Λ T \begin{align} \mathrm E\left[(z-\mathrm E[z])(x-\mathrm E[x])^T\right]&=\mathrm E\left[z(\mu+\varLambda z+\epsilon-\mu)^T\right]\\ &=\mathrm E\left[zz^T\right]\varLambda^T+\mathrm E\left[z\epsilon^T\right]\\ &=\varLambda^T \end{align} E[(zE[z])(xE[x])T]=E[z(μ+Λz+ϵμ)T]=E[zzT]ΛT+E[zϵT]=ΛT

关于上面的最后一步推导,一是根据[协方差定义]有 C o v ( z z T ) = E [ z z T ] − E [ z ] E [ z T ] = E [ z z T ] \mathrm{Cov}(zz^T)=\mathrm E\left[zz^T\right]-\mathrm E[z]\mathrm E\left[z^T\right]=\mathrm E\left[zz^T\right] Cov(zzT)=E[zzT]E[z]E[zT]=E[zzT](因为 z z z的期望为零);二是根据 z z z ϵ \epsilon ϵ相互独立有 E [ z ϵ T ] = E [ z ] E [ ϵ T ] \mathrm E\left[z\epsilon^T\right]=\mathrm E[z]\mathrm E\left[\epsilon^T\right] E[zϵT]=E[z]E[ϵT](仍是从协方差定义能够得到,独立事件协方差为零,所以独立事件之积的期望等于各自期望之积)。同样也可以化简 Σ x x \varSigma_{xx} Σxx

E [ ( x − E [ x ] ) ( z − E [ x ] ) T ] = E [ ( μ + Λ z + ϵ − μ ) ( μ + Λ z + ϵ − μ ) T ] = E [ Λ z z T Λ T + ϵ z T Λ T + Λ z ϵ T + ϵ ϵ T ] = Λ E [ z z T ] Λ T + E [ ϵ ϵ T ] = Λ Λ T + Ψ \begin{align} \mathrm E\left[(x-\mathrm E[x])(z-\mathrm E[x])^T\right]&=\mathrm E\left[(\mu+\varLambda z+\epsilon-\mu)(\mu+\varLambda z+\epsilon-\mu)^T\right]\\ &=\mathrm E\left[\varLambda zz^T\varLambda^T+\epsilon z^T\varLambda^T+\varLambda z\epsilon^T+\epsilon\epsilon^T\right]\\ &=\varLambda\mathrm E\left[zz^T\right]\varLambda^T+\mathrm E\left[\epsilon\epsilon^T\right]\\ &=\varLambda\varLambda^T+\varPsi \end{align} E[(xE[x])(zE[x])T]=E[(μ+Λz+ϵμ)(μ+Λz+ϵμ)T]=E[ΛzzTΛT+ϵzTΛT+ΛzϵT+ϵϵT]=ΛE[zzT]ΛT+E[ϵϵT]=ΛΛT+Ψ

综合上面所求的期望和协方差:

[ z x ] ∼ N ( [ 0 ⃗ μ ] , [ I Λ T Λ Λ Λ T + Ψ ] ) (3) \begin{bmatrix}z\\x\end{bmatrix}\sim\mathcal N\left(\begin{bmatrix}\vec0\\\mu\end{bmatrix},\begin{bmatrix}I&\varLambda^T\\\varLambda&\varLambda\varLambda^T+\varPsi\end{bmatrix}\right)\tag{3} [zx]N([0 μ],[IΛΛTΛΛT+Ψ])(3)

从这个式子也可以看出 x x x的边缘分布为 x ∼ N ( μ , Λ Λ T + Ψ ) x\sim\mathcal N\left(\mu,\varLambda\varLambda^T+\varPsi\right) xN(μ,ΛΛT+Ψ)。因此,对于给定的训练集 { x ( i ) ; i = 1 , ⋯   , m } \left\{x^{(i)};i=1,\cdots,m\right\} {x(i);i=1,,m},我们可以得到参数的对数似然函数:

l ( μ , Λ , Ψ ) = log ⁡ ∏ i = 1 m 1 ( 2 π ) n ∣ Λ Λ T + Ψ ∣ exp ⁡ ( − 1 2 ( x ( i ) − μ ) T ( Λ Λ T + Ψ ) − 1 ( x ( i ) − μ ) ) \mathscr l(\mu,\varLambda,\varPsi)=\log\prod_{i=1}^m\frac{1}{\sqrt{(2\pi)^n\left\lvert\varLambda\varLambda^T+\varPsi\right\rvert}}\exp\left(-\frac{1}{2}\left(x^{(i)}-\mu\right)^T\left(\varLambda\varLambda^T+\varPsi\right)^{-1}\left(x^{(i)}-\mu\right)\right) l(μ,Λ,Ψ)=logi=1m(2π)nΛΛT+Ψ 1exp(21(x(i)μ)T(ΛΛT+Ψ)1(x(i)μ))

下一步就是计算最大似然估计,求似然函数关于每个参数的最大值。但是最大化这个式子非常难,我们无法直接计算其最大值的解析解。于是,我们转而使用EM算法:

  • E步骤: Q i ( z ( i ) ) : = p ( z ( i ) ∣ x ( i ) ; θ ) Q_i\left(z^{(i)}\right):=p\left(z^{(i)}\mid x^{(i)};\theta\right) Qi(z(i)):=p(z(i)x(i);θ)
  • M步骤: θ : = a r g max ⁡ θ ∑ i ∫ z ( i ) Q i ( z ( i ) ) log ⁡ p ( x ( i ) , z ( i ) ; θ ) Q i ( z ( i ) ) d z ( i ) \displaystyle\theta:=\mathrm{arg}\operatorname*{max}_\theta\sum_i\int_{z^{(i)}}Q_i\left(z^{(i)}\right)\log\frac{p\left(x^{(i)},z^{(i)};\theta\right)}{Q_i\left(z^{(i)}\right)}\mathrm dz^{(i)} θ:=argθmaxiz(i)Qi(z(i))logQi(z(i))p(x(i),z(i);θ)dz(i)(因为这里的 z ( i ) z^{(i)} z(i)是一个连续变量,所以使用积分)。

下一节将详细介绍EM算法在因子分析模型上的应用。

  • 13
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值