【机器学习算法推导】隐狄利克雷模型LDA

1.统计学基础

1.1 二项分布

  二项分布是n重伯努利分布,可以看做是将硬币抛n次,出现k次正面向上的概率,每次出现正面向上的概率为p,其概率密度公式为
P ( X = k ) = C n k p k ( 1 − p ) n − k P(X=k)=C_n^kp^k(1-p)^{n-k} P(X=k)=Cnkpk(1p)nk

1.2 多项式分布

  多项式分布是二项分布推广到多种结果的情况,在多项式分布下,抛的不是硬币,而是一个骰子,或者是其他多面体。对于一个骰子,每一面出现的结果是 1 6 \frac{1}{6} 61,每一面出现的概率互斥且和为1,发生其中一个结果X次的概率就是多项式分布,假设投N次骰子,有 x 1 , x 2 , x 3 , x 4 , x 5 , x 6 x_1,x_2,x_3,x_4,x_5,x_6 x1,x2,x3,x4,x5,x6六种情况,令 m 1 , m 2 , m 3 , m 4 , m 5 , m 6 m_1,m_2,m_3,m_4,m_5,m_6 m1,m2,m3,m4,m5,m6分别表示每种情况出现的次数,且 m 1 + m 2 + m 3 + m 4 + m 5 + m 6 = N m_1+m_2+m_3+m_4+m_5+m_6=N m1+m2+m3+m4+m5+m6=N,则其概率为
P ( X 1 = m 1 , X 2 = m 2 , . . . , X n = m n ) = N ! m 1 ! m 2 ! . . . m n ! p 1 m 1 p 2 m 2 . . . p n m n P(X_1=m_1,X_2=m_2,...,X_n=m_n)=\frac{N!}{m_1!m_2!...m_n!}p_1^{m_1}p_2^{m_2}...p_n^{m_n} P(X1=m1,X2=m2,...,Xn=mn)=m1!m2!...mn!N!p1m1p2m2...pnmn

1.3 Gamma分布

   Γ \Gamma Γ函数的形式如下:
Γ ( x ) = ∫ 0 ∞ t x − 1 e − t   d t \Gamma (x)=\int_0^\infty {t^{x-1} e^{-t}} \,{\rm d}t Γ(x)=0tx1etdt
  该函数具有如下的递推性质:
Γ ( x + 1 ) = x Γ ( x ) \Gamma (x+1) = x\Gamma (x) Γ(x+1)=xΓ(x)
  容易知道 Γ \Gamma Γ函数为阶乘在实数集上的延伸,有
Γ ( n ) = ( n − 1 ) ! \Gamma (n) =(n-1)! Γ(n)=(n1)!
  对 Γ \Gamma Γ函数做一下变形,得到:
∫ 0 ∞ x α − 1 e − x Γ ( α )   d x = 1 \int_0^\infty {\frac{x^{\alpha-1}e^{-x}}{\Gamma (\alpha)}} \,{\rm d}x=1 0Γ(α)xα1exdx=1
  取积分中的函数,我们就得到Gamma分布的密度函数:
G a m m a ( x ∣ α ) = x α − 1 e − x Γ ( α ) Gamma(x|\alpha)={\frac{x^{\alpha-1}e^{-x}}{\Gamma (\alpha)}} Gamma(xα)=Γ(α)xα1ex

1.4 Beta分布

  在了解Beta分布前,需要先了解以下概念:

  • 先验概率:先验概率就是事情尚未发生前,我们对该事发生概率的估计。
  • 后验概率:后验概率是指通过调查或其它方式获取新的附加信息,利用贝叶斯公式对先验概率进行修正,而后得到的概率。
  • 共轭分布:在贝叶斯概率理论中,如果后验概率P(θ|x)和先验概率p(θ)满足同样的分布律,那么,先验分布和后验分布被叫做共轭分布,同时,先验分布叫做似然函数的共轭先验分布。
  • 极大似然估计(ML,Maximum Likelihood)可以估计模型的参数。其目标是找出一组参数 θ,使得模型产生出观测数据 x 的概率最大,其目标如下: arg ⁡ max ⁡ θ P ( x ∣ θ ) \arg \max_\theta P(x|\theta) argθmaxP(xθ)
  • 最大后验估计(MAP-max a posterior)可以在要估计的模型的参数存在先验概率的情况下优化后验概率,其目标如下:
    arg ⁡ max ⁡ θ P ( θ ∣ x ) = arg ⁡ max ⁡ θ P ( x ∣ θ ) P ( θ ) P ( x ) \arg \max_\theta P(\theta|x)=\arg \max_\theta \frac{P(x|\theta)P(\theta)}{P(x)} argθmaxP(θx)=argθmaxP(x)P(xθ)P(θ)
      因为样本x是给定的,所以 P ( x ) P(x) P(x)是定值,可以忽略,则等式变为
    arg ⁡ max ⁡ θ P ( θ ∣ x ) = arg ⁡ max ⁡ θ P ( x ∣ θ ) P ( θ ) \arg \max_\theta P(\theta|x)=\arg \max_\theta {P(x|\theta)P(\theta)} argθmaxP(θx)=argθmaxP(xθ)P(θ)
      即
    后 验 概 率 ∝ 似 然 函 数 × 先 验 概 率 后验概率 \propto 似然函数\times先验概率 ×
      贝塔分布(Beta Distribution) 是一个作为伯努利分布和二项式分布的共轭先验分布的密度函数,在机器学习和数理统计学中有重要应用。其概率密度函数如下:
    f ( x ; α , β ) = x α − 1 ( 1 − x ) β − 1 ∫ 0 1 u α − 1 ( 1 − u ) β − 1   d u = Γ ( α + β ) Γ ( α ) Γ ( β ) x α − 1 ( 1 − x ) β − 1 = 1 B ( α , β ) x α − 1 ( 1 − x ) β − 1 \begin{aligned} f(x;\alpha,\beta)&=\frac{x^{\alpha-1}(1-x)^{\beta-1}}{\int_0^1{u^{\alpha-1}(1-u)^{\beta-1}} \,{\rm d}u}=\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}x^{\alpha-1}(1-x)^{\beta-1}\\&=\frac{1}{B(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} \end{aligned} f(x;α,β)=01uα1(1u)β1duxα1(1x)β1=Γ(α)Γ(β)Γ(α+β)xα1(1x)β1=B(α,β)1xα1(1x)β1
      Beta分布的均值为:
    E ( p ) = α α + β E(p)=\frac{\alpha}{\alpha+\beta} E(p)=α+βα
      由于二项分布的似然函数为 μ k ( 1 − μ ) n − k \mu^k(1-\mu)^{n-k} μk(1μ)nk,如果先验概率也是 μ \mu μ 1 − μ 1-\mu 1μ的次方乘积的关系,那么根据 后 验 概 率 ∝ 似 然 函 数 × 先 验 概 率 后验概率 \propto 似然函数\times先验概率 ×,后验概率分布形式将会和先验概率一样,这样后验概率和先验概率为共轭分布。而Beta分布正好符合这样的要求,因此Beta分布是二项分布的共轭先验。

1.5 狄利克雷分布Dirichlet

  Dirichlet分布则是多项式分布的共轭先验,也可以看做是beta分布推广到多变量的情况。Dirichlet概率密度函数定义如下:
D i r ( p ∣ α ⃗ ) = 1 B ( α ⃗ ) ∏ k = 1 K p k a k − 1 , B ( α ⃗ ) = Γ ( ∑ k = 1 K a k ) ∏ k = 1 K Γ ( a k ) Dir(p|\vec \alpha)=\frac{1}{B(\vec \alpha)}\prod_{k=1}^Kp_k^{a_k-1},B(\vec \alpha)=\frac{\Gamma(\sum_{k=1}^Ka_k)}{\prod_{k=1}^K\Gamma(a_k)} Dir(pα )=B(α )1k=1Kpkak1,B(α )=k=1KΓ(ak)Γ(k=1Kak)
  我们要猜测参数 p ⃗ \vec p p ,其先验分布为 D i r ( p ⃗ ∣ α ⃗ ) Dir(\vec p|\vec \alpha) Dir(p α ),数据落到不同区间的个数为 m ⃗ \vec m m ,服从多项分布 M u l ( m ⃗ ∣ p ⃗ ) Mul(\vec m|\vec p) Mul(m p ),在给定了数据提供的知识 m ⃗ \vec m m ,p的后验分布变为 D i r ( p ⃗ ∣ α ⃗ + m ⃗ ) Dir(\vec p|\vec \alpha+\vec m) Dir(p α +m ),这个过程层也就是Dirichlet-Multinomial 共轭,用数学形式描述如下:
D i r ( p ⃗ ∣ α ⃗ ) + M u l ( m ⃗ ) = D i r ( p ⃗ ∣ α ⃗ + m ⃗ ) Dir(\vec p|\vec \alpha)+Mul(\vec m)=Dir(\vec p|\vec \alpha+\vec m) Dir(p α )+Mul(m )=Dir(p α +m )
  Dirichlet分布的均值为:
E ( p ) = ( a 1 ∑ i = 1 K a i , a 2 ∑ i = 1 K a i , . . . , a K ∑ i = 1 K a i ) E(p)=\left(\frac{a_1}{\sum_{i=1}^Ka_i},\frac{a_2}{\sum_{i=1}^Ka_i},...,\frac{a_K}{\sum_{i=1}^Ka_i}\right) E(p)=(i=1Kaia1,i=1Kaia2,...,i=1KaiaK)

2.概率论基础

  统计模拟中有一个重要的问题就是给定一个概率分布p(x),我们如何在计算机中生成它的样本。常见的概率分布,都可以基于01均匀分布的样本生成,而01均匀分布的样本则可以通过线性同余发生器生成。而如果p(x)是比较复杂的形式,我们就需要一些更加复杂的随机模拟的方法来生成样本。

2.1 马氏链及其收敛性

  在马氏链中,第n+1个状态只依赖于第n个状态。
  在线性代数中,有这样一种矩阵,它的每个元素非负,并且每列之和为1,这样的矩阵被称为马尔科夫矩阵,同时也是一个状态转移矩阵。当我们给定一个初始状态 π 0 \pi_0 π0时,有 π 1 = π 0 P \pi_1=\pi_0P π1=π0P, π 2 = π 1 P = π 0 P 2 \pi_2=\pi_1P=\pi_0P^2 π2=π1P=π0P2,…, π n = π 0 P n \pi_n=\pi_0P^n πn=π0Pn,而马尔科夫矩阵有一个性质,就是当任何两个状态联通,并且n足够大时, P n P^n Pn会收敛到某一个概率分布,从而使得我们的分布不再发生变化。
  所以最初的概率分布 π 0 \pi_0 π0,随着马尔科夫矩阵的转移,最终会收敛到某个分布 π ( x ) \pi(x) π(x)。当 X n ∼ π ( x ) X_n\sim\pi(x) Xnπ(x)时,有 X n + 1 ∼ π ( x ) , X n + 2 ∼ π ( x ) X_{n+1}\sim\pi(x),X_{n+2}\sim\pi(x) Xn+1π(x),Xn+2π(x),此时 X n , X n + 1 , X n + 2 , . . . X_n,X_{n+1},X_{n+2},... Xn,Xn+1,Xn+2,...属于分布 π ( x ) \pi(x) π(x)的样本。

2.2 MCMC算法

  如果,我们能够构造一个转移矩阵为P的马氏链,使得其平稳分布恰好是 π ( x ) \pi(x) π(x),那么我们从任意一个初始状态 x 0 x_0 x0出发,如果在n步收敛,那么接下去的样本 x n , x n + 1 , . . . x_n,x_{n+1},... xn,xn+1,...都是 π ( x ) \pi(x) π(x)的样本。
  细致平稳条件:对于达到平稳分布的转移矩阵P,有
π ( i ) P i j = π ( j ) P j i \pi(i)P_{ij}=\pi(j)P_{ji} π(i)Pij=π(j)Pji
  假设我们现在存在一个转移矩阵Q,q(i,j)表示从状态i转移到状态j的概率,通常情况下,细致平稳条件是不成立的。因此我们考虑两边同乘某个值,使得条件成立。令 α ( i , j ) = p ( j ) q ( j , i ) , α ( j , i ) = p ( i ) q ( i , j ) \alpha(i,j)=p(j)q(j,i),\alpha(j,i)=p(i)q(i,j) α(i,j)=p(j)q(j,i),α(j,i)=p(i)q(i,j),按照对称性,有
p ( i ) q ( i , j ) α ( i , j ) = p ( i ) q ( i , j ) α ( j , i ) p(i)q(i,j)\alpha(i,j)=p(i)q(i,j)\alpha(j,i) p(i)q(i,j)α(i,j)=p(i)q(i,j)α(j,i)
  将 q ( i , j ) α ( i , j ) , q ( i , j ) α ( j , i ) q(i,j)\alpha(i,j),q(i,j)\alpha(j,i) q(i,j)α(i,j),q(i,j)α(j,i)看成是新的转移矩阵 Q ′ ( i , j ) 和 Q ′ ( j , i ) Q'(i,j)和Q'(j,i) Q(i,j)Q(j,i),而 Q ′ Q' Q满足细致平稳条件,于是我们得到了马氏链 Q ′ Q' Q的平稳分布就是p(x)。
  而如果站在原来的转移矩阵Q上来考虑,新引进的 α ( i , j ) \alpha(i,j) α(i,j)可以看做是接受率,也就是,从状态i以q(i,j)的概率转移到状态j的时候,以 α ( i , j ) \alpha(i,j) α(i,j)的概率接受这个转移,从而转移概率为 q ( i , j ) α ( i , j ) q(i,j)\alpha(i,j) q(i,j)α(i,j)
  总结一下,我们可以得到MCMC算法的流程如下:

  1. 初始化马氏链初始状态 X 0 = x 0 X_0=x_0 X0=x0
  2. 进入循环t=0,1,2,…,在时刻t马氏链状态为 X t = x t X_t=x_t Xt=xt,采样 y ∼ q ( x ∣ x t ) y\sim q(x|x_t) yq(xxt)
  3. 从01均匀分布中生成随机数u
  4. 如果 u &lt; α ( x t , y ) = p ( y ) q ( x t ∣ y ) u&lt;\alpha(x_t,y)=p(y)q(x_t|y) u<α(xt,y)=p(y)q(xty),则接受转移 x t → y x_t→y xty,即X_{t+1}=y,否则 X t + 1 = x t X_{t+1}=x_t Xt+1=xt

2.3 Metropolis-Hastings算法

  对于式子 p ( i ) q ( i , j ) × 0.2 = p ( i ) q ( i , j ) × 0.1 p(i)q(i,j)\times0.2=p(i)q(i,j)\times0.1 p(i)q(i,j)×0.2=p(i)q(i,j)×0.1,虽然细致平稳条件成立,但是接受率太低,收敛得太慢。考虑将左右同乘5,得到
p ( i ) q ( i , j ) × 1 = p ( i ) q ( i , j ) × 0.5 p(i)q(i,j)\times1=p(i)q(i,j)\times0.5 p(i)q(i,j)×1=p(i)q(i,j)×0.5
不难发现接受率不仅提高了,而且细致平稳条件依然成立。因此我们稍微改造一下MCMC算法,让
α ( i , j ) = min ⁡ { p ( j ) q ( j , i ) p ( i ) q ( i , j ) , 1 } \alpha(i,j)=\min\{\frac{p(j)q(j,i)}{p(i)q(i,j)},1\} α(i,j)=min{p(i)q(i,j)p(j)q(j,i),1}
就得到了效率更高的Metropolis-Hastings算法。

2.4 吉布斯采样(Gibbs Sampling)

  对于高维的情况,由于接受率的存在,Metropolis-Hastings算法的效率不算高,能够找到一个转移矩阵Q使得接受率a=1呢?在二维下,假设有一个概率分布p(x,y),考虑坐标 A ( x 1 , y 1 ) , B ( x 1 , y 2 ) A(x_1,y_1),B(x_1,y_2) A(x1,y1),B(x1,y2),有
p ( x 1 , y 1 ) p ( y 2 ∣ x 1 ) = p ( x 1 ) p ( y 1 ∣ x 1 ) p ( y 2 ∣ x 1 ) p ( x 1 , y 2 ) p ( y 1 ∣ x 1 ) = p ( x 1 ) p ( y 2 ∣ x 1 ) p ( y 1 ∣ x 1 ) p(x_1,y_1)p(y_2|x_1)=p(x_1)p(y_1|x_1)p(y_2|x_1) \\ p(x_1,y_2)p(y_1|x_1)=p(x_1)p(y_2|x_1)p(y_1|x_1) p(x1,y1)p(y2x1)=p(x1)p(y1x1)p(y2x1)p(x1,y2)p(y1x1)=p(x1)p(y2x1)p(y1x1)

p ( A ) p ( y 2 ∣ x 1 ) = p ( B ) p ( y 1 ∣ x 1 ) p(A)p(y_2|x_1)=p(B)p(y_1|x_1) p(A)p(y2x1)=p(B)p(y1x1)
同样的,考虑坐标 A ( x 1 , y 1 ) , C ( x 2 , y 1 ) A(x_1,y_1),C(x_2,y_1) A(x1,y1),C(x2,y1),有
p ( A ) p ( x 2 ∣ y 1 ) = p ( C ) p ( x 1 ∣ y 1 ) p(A)p(x_2|y_1)=p(C)p(x_1|y_1) p(A)p(x2y1)=p(C)p(x1y1)
  因此构造转移矩阵
Q = { q ( A , B ) = p ( y B ∣ x 1 ) i f x A = x B = x 1 q ( A , C ) = p ( x C ∣ y 1 ) i f y A = y C = y 1 0 o t h e r w i s e s Q= \begin{cases} q(A,B)=p(y_B|x_1) &amp; if \quad x_A=x_B=x_1 \\ q(A,C)=p(x_C|y_1) &amp; if \quad y_A=y_C=y_1 \\ 0 &amp; otherwises \end{cases} Q=q(A,B)=p(yBx1)q(A,C)=p(xCy1)0ifxA=xB=x1ifyA=yC=y1otherwises
在上面转移矩阵Q下,二维空间的马氏链将收敛到平稳分布p(x,y)。
  二维Gibbs Sampling的流程总结如下:

  1. 随机初始化 X 0 = x 0 , Y 0 = y 0 X_0=x_0,Y_0=y_0 X0=x0,Y0=y0
  2. 对于t=0,1,2,…,循环采样 y t + 1 ∼ p ( y ∣ x t ) , x t + 1 ∼ p ( x ∣ y t + 1 ) y_{t+1}\sim p(y|x_t),x_{t+1}\sim p(x|y_{t+1}) yt+1p(yxt),xt+1p(xyt+1)

  将二维Gibbs Sampling推广到n维,其算法流程如下:

  1. 随机初始化 { x i : i = 1 , 2 , 3 , . . . , n } \{x_i:i=1,2,3,...,n\} {xi:i=1,2,3,...,n}
  2. 对于t=0,1,2,…,循环采样
  3. x 1 t + 1 ∼ p ( x 1 ∣ x 2 t , x 3 t , . . . , x n t ) x_1^{t+1}\sim p(x_1|x_2^t,x_3^t,...,x_n^t) x1t+1p(x1x2t,x3t,...,xnt)
  4. x 2 t + 1 ∼ p ( x 2 ∣ x 1 t + 1 , x 3 t , . . . , x n t ) x_2^{t+1}\sim p(x_2|x_1^{t+1},x_3^t,...,x_n^t) x2t+1p(x2x1t+1,x3t,...,xnt)
  5. x 3 t + 1 ∼ p ( x 3 ∣ x 1 t + 1 , x 2 t + 1 , x 4 t , . . . , x n t ) x_3^{t+1}\sim p(x_3|x_1^{t+1},x_2^{t+1},x_4^t,...,x_n^t) x3t+1p(x3x1t+1,x2t+1,x4t,...,xnt)
  6. x n t + 1 ∼ p ( x n ∣ x 1 t + 1 , x 2 t + 1 , x 3 t + 1 , . . . , x n − 1 t + 1 ) x_n^{t+1}\sim p(x_n|x_1^{t+1},x_2^{t+1},x_3^{t+1},...,x_{n-1}^{t+1}) xnt+1p(xnx1t+1,x2t+1,x3t+1,...,xn1t+1)

3. 隐狄利克雷模型LDA

  在pLSA模型中,我们考虑将一篇文档考虑成由不同的主题和主题下的对应的高频词汇组成。但是文档选择某个主题的分布 ϑ ⃗ m \vec \vartheta_m ϑ m,或者在主题下选择某个词汇的概率分布 φ ⃗ k \vec \varphi_k φ k,都没有任何的先验分布,而是由EM算法收敛得到其分布。由于 ϑ ⃗ m \vec \vartheta_m ϑ m φ ⃗ k \vec \varphi_k φ k都对应到多项分布,所以其先验分布的一个好的选择就是Dirichlet分布,于是我们就得到了LDA模型。
LDA图模型
  LDA模型分为两个部分:

  1. α ⃗ → ϑ ⃗ m → z m , n \vec \alpha→\vec \vartheta_m →z_{m,n} α ϑ mzm,n表示,在生成第m篇文档时,先以一定概率抽中某个doc-topic分布 ϑ ⃗ m \vec \vartheta_m ϑ m,再根据这个分布生成文档中第n个词的主题编号 z m , n z_{m,n} zm,n
  2. β ⃗ → φ ⃗ k → w m , n ∣ ( k = z m , n ) \vec \beta→\vec \varphi_k →w_{m,n}|(k=z_{m,n}) β φ kwm,n(k=zm,n)表示,在K个topic-word分布 φ ⃗ k \vec \varphi_k φ k中,挑选编号为k= z m , n z_{m,n} zm,n的分布生成单词 w m , n w_{m,n} wm,n
      对第一个过程 α ⃗ → ϑ ⃗ m → z m , n \vec \alpha→\vec \vartheta_m →z_{m,n} α ϑ mzm,n来说, ϑ ⃗ m → z m , n \vec \vartheta_m →z_{m,n} ϑ mzm,n对应与多项分布, α ⃗ → ϑ ⃗ m \vec \alpha→\vec \vartheta_m α ϑ m对应于Dirichlet分布,所以整体是一个Dirichlet-Multinomial共轭结构。

  由于Dirichlet分布则是多项式分布的共轭先验,有
D i r ( θ ⃗ m ∣ α ⃗ ) + M u l ( n ⃗ m ) = D i r ( θ ⃗ m ∣ α ⃗ + n ⃗ m ) Dir(\vec \theta_m|\vec \alpha)+Mul(\vec n_m)=Dir(\vec \theta_m|\vec \alpha + \vec n_m) Dir(θ mα )+Mul(n m)=Dir(θ mα +n m)
  那么在已知先验概率 D i r ( θ ⃗ m ∣ α ⃗ ) Dir(\vec \theta_m|\vec \alpha) Dir(θ mα )的情况下,我们直接可以得到后验概率
p ( θ ⃗ m ∣ z ⃗ , α ⃗ ) = D i r ( θ ⃗ m ∣ α ⃗ + n ⃗ m ) = 1 Δ ( α ⃗ + n ⃗ m ) ∏ k = 1 K θ k n k + a k − 1 d θ ⃗ p(\vec \theta_m|\vec z,\vec \alpha)=Dir(\vec \theta_m|\vec \alpha + \vec n_m)=\frac{1}{\Delta(\vec \alpha+ \vec n_m)}\prod_{k=1}^K\theta_k^{n_k+a_k-1}d\vec \theta p(θ mz ,α )=Dir(θ mα +n m)=Δ(α +n m)1k=1Kθknk+ak1dθ
  进而我们可得到某个topic的产生概率为
p ( z ⃗ m ∣ a ⃗ ) = ∫ p ( z ⃗ m ∣ θ ⃗ m ) p ( θ ⃗ m ∣ a ⃗ ) &ThinSpace; d θ ⃗ m = ∫ ∏ k = 1 K θ k n k D i r ( θ ⃗ m ∣ a ⃗ ) &ThinSpace; d θ ⃗ m = ∫ ∏ k = 1 K θ k n k 1 Δ ( a ⃗ ) ∏ k = 1 K θ k a k − 1 &ThinSpace; d θ ⃗ m = 1 Δ ( a ⃗ ) ∫ ∏ k = 1 K θ k n k + a k − 1 &ThinSpace; d θ ⃗ m = Δ ( a ⃗ + n ⃗ m ) Δ ( a ⃗ ) \begin{aligned} p(\vec z_m|\vec a) &amp;=\int p(\vec z_m|\vec \theta_m)p(\vec \theta_m|\vec a) \,{\rm d}\vec \theta_m \\ &amp;=\int \prod_{k=1}^K\theta_k^{n_k}Dir(\vec \theta_m|\vec a) \,{\rm d}\vec \theta_m \\ &amp;=\int \prod_{k=1}^K\theta_k^{n_k}\frac{1}{\Delta(\vec a)}\prod_{k=1}^K\theta_k^{a_k-1} \,{\rm d}\vec \theta_m \\ &amp;=\frac{1}{\Delta(\vec a)}\int \prod_{k=1}^K\theta_k^{n_k+a_k-1} \,{\rm d}\vec \theta_m \\ &amp;=\frac{\Delta(\vec a+\vec n_m)}{\Delta(\vec a)} \end{aligned} p(z ma )=p(z mθ m)p(θ ma )dθ m=k=1KθknkDir(θ ma )dθ m=k=1KθknkΔ(a )1k=1Kθkak1dθ m=Δ(a )1k=1Kθknk+ak1dθ m=Δ(a )Δ(a +n m)
  由于M篇文档的topic生成过程相互独立,因此整个topic的生成概率为
p ( z ⃗ ∣ α ⃗ ) = ∏ m = 1 M p ( z ⃗ m ∣ α ⃗ ) = ∏ m = 1 M Δ ( n ⃗ m + α ⃗ ) Δ ( α ⃗ ) p(\vec z|\vec \alpha)=\prod_{m=1}^Mp(\vec z_m|\vec \alpha)=\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec \alpha)}{\Delta(\vec \alpha)} p(z α )=m=1Mp(z mα )=m=1MΔ(α )Δ(n m+α )

  令 w ⃗ ′ = ( w ⃗ 1 , . . . w ⃗ K ) , z ⃗ ′ = ( z ⃗ 1 , . . . z ⃗ K ) \vec w&#x27;=(\vec w_1,...\vec w_K),\vec z&#x27;=(\vec z_1,...\vec z_K) w =(w 1,...w K),z =(z 1,...z K),其中 w ⃗ i \vec w_i w i表示第i类topic的词汇, k ⃗ i \vec k_i k i表示第i类topic词汇对应的topic编号。对于LDA模型的第二个部分 β ⃗ → φ ⃗ k → w m , n ∣ ( k = z m , n ) \vec \beta→\vec \varphi_k →w_{m,n}|(k=z_{m,n}) β φ kwm,n(k=zm,n),在 k = z m , n k=z_{m,n} k=zm,n的限制下,任何两个由主题k生成的词都是可交换的,即使不在同一个文档中。考虑如下过程 b ⃗ e t a → φ ⃗ k → w ⃗ k \vec beta→\vec \varphi_k→\vec w_k b etaφ kw k,其中 b ⃗ e t a → φ ⃗ k \vec beta→\vec \varphi_k b etaφ k对应于Dirichlet分布, φ k → w ⃗ k \varphi_k→\vec w_k φkw k对应于Multinomial分布。于是有
p ( w ⃗ k ∣ β ⃗ ) = Δ ( n ⃗ k + β ⃗ ) Δ β ⃗ p(\vec w_k|\vec \beta)=\frac{\Delta(\vec n_k+\vec \beta)}{\Delta \vec \beta} p(w kβ )=Δβ Δ(n k+β )
  参数 φ ⃗ k \vec \varphi k φ k的后验分布为
D i r ( φ ⃗ k ∣ n ⃗ k + β ⃗ ) Dir(\vec \varphi_k|\vec n_k + \vec \beta) Dir(φ kn k+β )
  整个语料中词生成概率为
p ( w ⃗ ∣ z ⃗ , β ⃗ ) = p ( w ⃗ ′ ∣ z ⃗ ′ , β ⃗ ) = ∏ k = 1 K p ( w ⃗ k ∣ z ⃗ k , β ⃗ ) = ∏ k = 1 K Δ ( n ⃗ k + β ⃗ ) Δ ( β ⃗ ) \begin{aligned} p(\vec w|\vec z,\vec \beta) &amp;=p(\vec w&#x27;|\vec z&#x27;,\vec \beta)\\ &amp;=\prod_{k=1}^Kp(\vec w_k|\vec z_k,\vec \beta)\\ &amp;=\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec \beta)}{\Delta(\vec \beta)} \end{aligned} p(w z ,β )=p(w z ,β )=k=1Kp(w kz k,β )=k=1KΔ(β )Δ(n k+β )
c综合式子()和()得到
p ( w ⃗ , z ⃗ ∣ α ⃗ , β ⃗ ) = p ( w ⃗ ∣ z ⃗ , β ⃗ ) p ( z ⃗ ∣ α ⃗ ) = ∏ k = 1 K Δ ( n ⃗ k + β ⃗ ) Δ ( β ⃗ ) ∏ m = 1 M Δ ( n ⃗ m + α ⃗ ) Δ ( α ⃗ ) p(\vec w,\vec z|\vec \alpha,\vec \beta)=p(\vec w|\vec z,\vec \beta)p(\vec z|\vec \alpha)=\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec \beta)}{\Delta(\vec \beta)}\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec \alpha)}{\Delta(\vec \alpha)} p(w ,z α ,β )=p(w z ,β )p(z α )=k=1KΔ(β )Δ(n k+β )m=1MΔ(α )Δ(n m+α )
  得到联合分布 p ( w ⃗ , z ⃗ ) p(\vec w,\vec z) p(w ,z )后,我们就可以使用Gibbs Sampling对分布进行采样,由于 w ⃗ \vec w w 已知,所以实际上只需要采样 p ( z ⃗ ∣ w ⃗ ) p(\vec z|\vec w) p(z w ) 。将所有的 z i z_i zi看成是坐标轴,令 ¬ i \neg i ¬i表示去除下标为i的词。根据算法要求,我们需要求得 p ( z i = k ∣ z ⃗ ¬ i , w ⃗ ) p(z_i=k|\vec z_{\neg i},\vec w) p(zi=kz ¬i,w ),假设已经观测到的词 w i = t w_i=t wi=t,由贝叶斯法则,容易得到
p ( z i = k ∣ z ⃗ ¬ i , w ⃗ ) ∝ p ( z i = k , w i = t ∣ z ⃗ ¬ i , w ⃗ ¬ i ) p(z_i=k|\vec z_{\neg i},\vec w) \propto p(z_i=k,w_i=t|\vec z_{\neg i},\vec w_{\neg i}) p(zi=kz ¬i,w )p(zi=k,wi=tz ¬i,w ¬i)
  去掉某个词并不改变共轭结构,只是对应的计数变少,从而有
p ( θ ⃗ m ∣ z ⃗ ¬ i , w ⃗ ¬ i ) = D i r ( θ ⃗ m ∣ n ⃗ m , ¬ i + α ⃗ ) p ( φ ⃗ k ∣ z ⃗ ¬ i , w ⃗ ¬ i ) = D i r ( φ ⃗ k ∣ n ⃗ k , ¬ i + β ⃗ ) p(\vec \theta_m|\vec z_{\neg i},\vec w_{\neg i})=Dir(\vec \theta_m|\vec n_{m,\neg i}+\vec \alpha)\\ p(\vec \varphi_k|\vec z_{\neg i},\vec w_{\neg i})=Dir(\vec \varphi_k|\vec n_{k,\neg i}+\vec \beta) p(θ mz ¬i,w ¬i)=Dir(θ mn m,¬i+α )p(φ kz ¬i,w ¬i)=Dir(φ kn k,¬i+β )
  整合一下,得到
p ( z i = k ∣ z ⃗ ¬ i , w ⃗ ) ∝ p ( z i = k , w i = t ∣ z ⃗ ¬ i , w ⃗ ¬ i ) = ∫ p ( z i = k , w i = t , θ ⃗ m , φ ⃗ k ∣ z ⃗ ¬ i , w ⃗ ¬ i ) d θ ⃗ m d φ ⃗ k = ∫ p ( z i = k , θ ⃗ m ∣ z ⃗ ¬ i , w ⃗ ¬ i ) p ( w i = t , φ ⃗ k ∣ z ⃗ ¬ i , w ⃗ ¬ i ) d θ ⃗ m d φ ⃗ k = ∫ p ( z i = k ∣ θ ⃗ m ) D i r ( θ ⃗ m ∣ n ⃗ m , ¬ i + α ⃗ ) d θ ⃗ m × p ( w i = t ∣ φ ⃗ k ) D i r ( φ ⃗ k ∣ n ⃗ k , ¬ i + β ⃗ ) d φ ⃗ k = ∫ θ m k D i r ( θ ⃗ m ∣ n ⃗ m , ¬ i + α ⃗ ) d θ ⃗ m × ∫ φ k t D i r ( φ ⃗ k ∣ n ⃗ k , ¬ i + β ⃗ ) d φ ⃗ k = E ( θ m k ) E ( φ k t ) = θ ^ m k φ ^ k t = n m . ¬ i ( k ) + α k ∑ x = 1 K n m . ¬ i ( x ) + α x n k . ¬ i ( t ) + β t ∑ x = 1 V n k . ¬ i ( x ) + β x \begin{aligned} p(z_i=k|\vec z_{\neg i},\vec w) &amp;\propto p(z_i=k,w_i=t|\vec z_{\neg i},\vec w_{\neg i})\\ &amp;=\int p(z_i=k,w_i=t,\vec \theta_m,\vec \varphi_k|\vec z_{\neg i},\vec w_{\neg i})d\vec \theta_m d\vec \varphi_k \\ &amp;=\int p(z_i=k,\vec \theta_m|\vec z_{\neg i},\vec w_{\neg i})p(w_i=t,\vec \varphi_k|\vec z_{\neg i},\vec w_{\neg i})d\vec \theta_m d\vec \varphi_k\\ &amp;=\int p(z_i=k|\vec \theta_m)Dir(\vec \theta_m|\vec n_{m,\neg i}+\vec \alpha)d\vec \theta_m \times p(w_i=t|\vec \varphi_k)Dir(\vec \varphi_k|\vec n_{k,\neg i}+\vec \beta)d\vec \varphi_k\\ &amp;=\int \theta_{mk}Dir(\vec \theta_m|\vec n_{m,\neg i}+\vec \alpha)d\vec \theta_m \times \int \varphi_{kt}Dir(\vec \varphi_k|\vec n_{k,\neg i}+\vec \beta)d\vec \varphi_k\\ &amp;=E(\theta_{mk})E(\varphi_{kt})\\ &amp;=\hat \theta_{mk}\hat \varphi_{kt}\\ &amp;=\frac{n_{m.\neg i}^{(k)}+\alpha_k}{\sum_{x=1}^Kn_{m.\neg i}^{(x)}+\alpha_x} \frac{n_{k.\neg i}^{(t)}+\beta_t}{\sum_{x=1}^Vn_{k.\neg i}^{(x)}+\beta_x} \end{aligned} p(zi=kz ¬i,w )p(zi=k,wi=tz ¬i,w ¬i)=p(zi=k,wi=t,θ m,φ kz ¬i,w ¬i)dθ mdφ k=p(zi=k,θ mz ¬i,w ¬i)p(wi=t,φ kz ¬i,w ¬i)dθ mdφ k=p(zi=kθ m)Dir(θ mn m,¬i+α )dθ m×p(wi=tφ k)Dir(φ kn k,¬i+β )dφ k=θmkDir(θ mn m,¬i+α )dθ m×φktDir(φ kn k,¬i+β )dφ k=E(θmk)E(φkt)=θ^mkφ^kt=x=1Knm.¬i(x)+αxnm.¬i(k)+αkx=1Vnk.¬i(x)+βxnk.¬i(t)+βt
  上式便是LDA模型的Gibbs Samppling 公式,基于该公式我们可以训练LDA模型并应用到新的文档进行topic语义分析。训练的过程如下:

  1. 对文档中每个词w,随机赋予一个topic编号z
  2. 扫描整个语料库,对每个词,按照Gibbs Sampling公式重新采样它的topic,在语料中进行更新。重复直至Gibbs Sampling收敛。
  3. 统计topic-word共现频率矩阵,该矩阵就是LDA的模型。

  利用LDA模型,我们可以对新来的文档进行主题的分类,分类的过程如下:

  1. 对新来的文档每个词w随机赋予一个topic编号z
  2. 重新扫描当前文档,按照Gibbs Sampling公式,对每个词w,重新采样它的topic。重复直至Gibbs Sampling收敛。
  3. 统计文档中的topic分布得到 θ ⃗ n e w \vec \theta_{new} θ new
  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值