LDA(Latent Dirichlet Allocation)是一个优美的概率图模型,可以用来寻找文本的主题。最近系统的学习了一下这个模型,主要参考了《LDA八卦》和July的博客《通俗理解LDA主题模型》。本文主要对文本建模进行梳理,其中的涉及的数学知识将在另外的博客中讲解。
1、Unigram Model
1.1、频率学派
Unigram Model是最简单的文本模型,认为一篇文档的生成过程是从一个词袋(bag of words)中不断取词的过程。
- 上帝只有一枚骰子,这个骰子有 V V V面,每一面对应一个词,各面出现概率不一;
- 上帝每抛一次骰子,抛出的面就对应产生一个词;如果要生成一篇包含n个词的文档,只需要独立抛骰子n次。
这个模型中唯一需要确定的是骰子每一面(也就是每个词)发生的概率,记为
p
⃗
=
(
p
1
,
p
2
,
⋯
 
,
p
V
)
\vec{p}=(p_1,p_2,\cdots,p_V)
p=(p1,p2,⋯,pV)。因为每次抛骰子是独立的,因此一篇包含N个词的文档的生成概率为:
p
(
w
⃗
)
=
p
(
w
1
,
w
2
,
⋯
 
,
w
N
)
=
∏
n
=
1
N
p
(
w
n
)
p(\vec{w})=p(w_1,w_2,\cdots,w_N)=\prod_{n=1}^Np(w_n)
p(w)=p(w1,w2,⋯,wN)=n=1∏Np(wn)
因为各语料相互独立,所以语料库M篇文档的生成概率是:
p
(
W
)
=
p
(
w
1
⃗
)
p
(
w
2
⃗
)
⋯
p
(
w
M
⃗
)
=
∏
m
=
1
M
∏
n
=
1
N
p
(
w
m
n
)
p(W)=p(\vec{w_1})p(\vec{w_2})\cdots p(\vec{w_M})=\prod_{m=1}^M\prod_{n=1}^Np(w_{mn})
p(W)=p(w1)p(w2)⋯p(wM)=m=1∏Mn=1∏Np(wmn)
w
m
n
w_{mn}
wmn表示第m篇文档中第n个词。假设语料中总的单词数目为N,V个词中每个词产生次数为
n
i
n_i
ni,有
n
⃗
=
(
n
1
,
n
2
,
⋯
 
,
n
V
)
\vec{n}=(n_1,n_2,\cdots,n_V)
n=(n1,n2,⋯,nV),
n
1
+
n
2
+
⋯
+
n
V
=
N
n_1+n_2+\cdots+n_V=N
n1+n2+⋯+nV=N满足多项式分布
p
(
n
⃗
)
=
M
u
l
t
i
(
n
⃗
∣
p
⃗
,
N
)
=
(
N
n
⃗
)
∏
v
=
1
V
p
v
n
v
p(\vec{n})=Multi(\vec{n}|\vec{p},N)= \begin{pmatrix} N \\ \vec{n} \end{pmatrix} \prod_{v=1}^Vp_v^{n_v}
p(n)=Multi(n∣p,N)=(Nn)v=1∏Vpvnv
此时,语料相当于是V个单词在N次取值试验组合中的一种,所以
p
(
W
)
=
∏
v
=
1
V
p
v
n
v
p(W)=\prod_{v=1}^Vp_v^{n_v}
p(W)=v=1∏Vpvnv
下面就是要通过观测到的语料去估计每个单词产生概率
p
⃗
\vec{p}
p。按照频率学派的观点(参数虽然未知,但是其取值是固定的),可以采用最大似然估计,于是参数
p
⃗
\vec{p}
p的估计值是
p
v
^
=
n
v
N
\hat{p_v}=\frac{n_v}{N}
pv^=Nnv
其图模型为
方框表示重复,图中灰色圆圈的w表示可观测变量,N表示一篇文档中包含N个单词,M表示生成M篇文档。
1.2、贝叶斯学派
但是按照贝叶斯学派的观点,参数 p ⃗ \vec{p} p不仅未知,且其取值也未定,也就是说骰子不是唯一固定的,它也是一个随机变量,在生成文本之前,使用哪个骰子是不确定的。所以按照贝叶斯学派的观点,文本生成过程如下:
- 上帝有一个装有无数骰子的坛子,里面每个骰子有 V V V面;
- 每次上帝从坛子中取出一个骰子,然后不断的抛这枚骰子,产生语料中所有的词。
坛子中骰子
p
⃗
\vec{p}
p服从一个概率分布
p
(
p
⃗
)
p(\vec{p})
p(p),这个分布称为参数
p
⃗
\vec{p}
p的先验分布。由于我们不知道上帝使用了哪一枚骰子,所以每一枚骰子都有可能依据概率
p
(
p
⃗
)
p(\vec{p})
p(p)被选中,在使用该骰子时语料产生的概率是条件概率
p
(
W
∣
p
⃗
)
p(W|\vec{p})
p(W∣p),所以最终语料产生的概率为:
p
(
W
)
=
∫
p
(
W
∣
p
⃗
)
p
(
p
⃗
)
d
p
⃗
p(W)=\int p(W|\vec{p})p(\vec{p})d\vec{p}
p(W)=∫p(W∣p)p(p)dp
由上面1.1的推导,
p
(
n
⃗
)
p(\vec{n})
p(n)符合多项式分布,也就可以近似认为
p
(
W
∣
p
⃗
)
p(W|\vec{p})
p(W∣p)符合多项式分布,所以先验分布的一个比较好的选择是多项式分布的共轭先验分布(共轭先验分布等分布函数内容将会在另外的博客讲解),即Dirichlet分布
D
i
r
(
p
⃗
∣
α
⃗
)
Dir(\vec{p}|\vec{\alpha})
Dir(p∣α)。Dirichlet先验+多项式分布的数据
→
\to
→后验分布为Dirichlet分布,所以参数
p
⃗
\vec{p}
p的后验分布为
D
i
r
(
p
⃗
∣
n
⃗
+
α
⃗
)
Dir(\vec{p}|\vec{n}+\vec{\alpha})
Dir(p∣n+α)。进一步,我们可以计算出语料的产生概率为:
p
(
W
∣
α
⃗
)
=
∫
p
(
W
∣
p
⃗
)
p
(
p
⃗
∣
α
⃗
)
d
p
⃗
=
∫
∏
v
=
1
V
p
v
n
v
D
i
r
(
p
⃗
∣
α
⃗
)
d
p
⃗
=
∫
∏
v
=
1
V
p
v
n
v
1
Δ
(
α
⃗
)
∏
v
=
1
V
p
v
α
v
−
1
d
p
⃗
=
1
Δ
(
α
⃗
)
∫
∏
v
=
1
V
p
v
α
v
+
n
v
−
1
d
p
⃗
=
Δ
(
n
⃗
+
α
⃗
)
Δ
(
α
⃗
)
\begin{aligned} p(W|\vec{\alpha}) &= \int p(W|\vec{p})p(\vec{p}|\vec{\alpha})d\vec{p}\\ &= \int\prod_{v=1}^Vp_v^{n_v}Dir(\vec{p}|\vec{\alpha})d\vec{p} \\ &= \int\prod_{v=1}^Vp_v^{n_v}\frac{1}{\Delta(\vec{\alpha})}\prod_{v=1}^Vp_v^{\alpha_v-1}d\vec{p} \\ &= \frac{1}{\Delta(\vec{\alpha})}\int\prod_{v=1}^Vp_v^{\alpha_v+n_v-1}d\vec{p} \\ &= \frac{\Delta(\vec{n}+\vec{\alpha})}{\Delta(\vec{\alpha})} \end{aligned}
p(W∣α)=∫p(W∣p)p(p∣α)dp=∫v=1∏VpvnvDir(p∣α)dp=∫v=1∏VpvnvΔ(α)1v=1∏Vpvαv−1dp=Δ(α)1∫v=1∏Vpvαv+nv−1dp=Δ(α)Δ(n+α)
贝叶斯学派下,对应的概率图模型如下:
此处N表示语料库中总共包含N个词。
2、PLSA
Unigram Model将一篇文档的生成过程简单地看作是从词袋中不断取词的过程显然于人类在写文章时遣词造句的过程存在较大差距。通常,我们在写文章时,首先会确定文章所包含的主题,然后根据主题选择相应的单词。
基于以上直观想法,Hofmann在1999年提出了PLSA(Probabilistic Latent Semantic Analysis)模型。Hofmann认为一篇文档由多个主题混合而成,每个主题都是词汇上的概率分布,文档中每个单词都是先确定一个主题后,然后在该主题下生成。此时文本生成过程如下:
- 上帝有两类骰子,一类是doc-topic骰子,每个doc-topic骰子有K个面,每一面是一个topic;一类是topic-word骰子,每个topic-word骰子有V面,每个面对应一个单词;
- 上帝一共有K个topic-word骰子,每个骰子有一个编号,从1到K;
- 生成每篇文档之前,上帝先为这篇文章制造一个特定的doc-topic骰子,然后重复如下过程生成文档中的词
3.1. 投掷这个doc-topic骰子,得到一个编号为k的topic;
3.2. 选择K个topic-word骰子中编号为k的那个,骰子这个骰子,得到一个词。
对应的概率图模型如下:
d和w是可观测到的变量。
在以上游戏规则下,文档之间是独立可交换的,同一个文档中的单词也是可交换的,所以还是一个词袋模型。第m篇文档
d
m
d_m
dm中词
w
j
w_j
wj的生成概率为
p
(
w
j
∣
d
m
)
=
∑
k
=
1
K
p
(
w
j
∣
z
k
)
p
(
z
k
∣
d
m
)
p(w_j|d_m)=\sum_{k=1}^Kp(w_j|z_k)p(z_k|d_m)
p(wj∣dm)=k=1∑Kp(wj∣zk)p(zk∣dm)
其中
z
⃗
=
(
z
1
,
z
2
,
⋯
 
,
z
k
)
\vec{z}=(z_1,z_2,\cdots,z_k)
z=(z1,z2,⋯,zk)表示生成这篇文章所采用的doc-topic骰子中每个topic的概率。第m篇文档
d
m
d_m
dm的生成概率为
p
(
w
⃗
∣
d
m
)
=
∏
i
=
1
n
p
(
w
i
∣
d
m
)
=
∏
v
=
1
V
p
(
w
v
∣
d
m
)
n
(
w
v
,
d
m
)
p(\vec{w}|d_m)=\prod_{i=1}^np(w_i|d_m)=\prod_{v=1}^Vp(w_v|d_m)^{n(w_v,d_m)}
p(w∣dm)=i=1∏np(wi∣dm)=v=1∏Vp(wv∣dm)n(wv,dm)
注意
w
i
w_i
wi与
w
v
w_v
wv的区别,
w
i
w_i
wi表示一篇包含n个单词的文档中第i个位置是单词
w
i
w_i
wi,
w
v
w_v
wv表示词汇集合中的词
w
v
w_v
wv。整个语料的生成概率为
p
(
W
∣
D
)
=
∏
m
=
1
M
∏
v
=
1
V
p
(
w
v
∣
d
m
)
n
(
w
v
,
d
m
)
p(W|D)=\prod_{m=1}^M\prod_{v=1}^Vp(w_v|d_m)^{n(w_v,d_m)}
p(W∣D)=m=1∏Mv=1∏Vp(wv∣dm)n(wv,dm)
其中,
n
(
w
v
,
d
m
)
n(w_v,d_m)
n(wv,dm)表示在文档
d
m
d_m
dm中单词
w
v
w_v
wv的词频。同样采用最大似然估计,整个语料库的似然函数如下
log
p
(
W
∣
D
)
=
∑
m
=
1
M
∑
v
=
1
V
n
(
w
v
,
d
m
)
log
p
(
w
v
∣
d
m
)
=
∑
m
=
1
M
∑
v
=
1
V
n
(
w
v
,
d
m
)
log
∑
k
=
1
K
p
(
w
v
∣
z
k
)
p
(
z
k
∣
d
m
)
\begin{aligned} \log p(W|D) &= \sum_{m=1}^{M}\sum_{v=1}^Vn(w_v,d_m)\log p(w_v|d_m) \\ &= \sum_{m=1}^{M}\sum_{v=1}^Vn(w_v,d_m)\log \sum_{k=1}^Kp(w_v|z_k)p(z_k|d_m) \end{aligned}
logp(W∣D)=m=1∑Mv=1∑Vn(wv,dm)logp(wv∣dm)=m=1∑Mv=1∑Vn(wv,dm)logk=1∑Kp(wv∣zk)p(zk∣dm)
现在,通过最大化这个对数似然函数就能求解参数 p ( w v ∣ z k ) p(w_v|z_k) p(wv∣zk)和 p ( z k ∣ d m ) p(z_k|d_m) p(zk∣dm),对于这种含有隐变量的参数估计,可以采用EM算法(EM算法等参数估计方法将在另外博客讲解)。
3、LDA
PLSA中认为每一篇文档中每个词的主题仅由唯一一个doc-topic分布生成,语料中每个topic对应的topic-word分布也是唯一固定的。这显然不符合贝叶斯学派的观点,因此LDA(Latent Dirichlet Allocation)在PLSA的基础上加入了贝叶斯框架,将其改造成贝叶斯版本。此时LDA生成文档的过程如下:
- 上帝有两个坛子,一个坛子装的是doc-topic骰子,一个坛子装的是topic-word骰子;
- 上帝随机从topic-word坛子中独立取出K个topic-word骰子,编号为1到K;
- 每次生成一篇新文档前,上帝先从第一个坛子中随机抽取一个doc-topic骰子,然后重复如下过程生成文档中的词
3.1. 投掷这个doc-topic骰子,得到一个编号为k的topic;
3.2. 选择K个topic-word骰子中编号为k的那个,投掷这枚骰子,生成一个词。
对应的概率图模型如下:
图中红色的框表示语料级,黄色的框表示文档级,绿色的框表示单词级,灰色的w表示可观测变量,
θ
\theta
θ表示一篇文档的主题分布,
φ
\varphi
φ表示词分布(topic-word分布),
α
\alpha
α是主题分布的先验分布(即Dirichlet分布)的参数,
β
\beta
β是词分布的先验分布(即Dirichlet分布)的参数,K是主题数目,N是一篇文档中单词数目,M是文档数目。
在上面的分析中,我们都是一篇文档一篇文档的处理,其中有一些步骤是可以交换的,我们可以先生成语料中每个单词的主题,然后根据每个单词的主题,生成最终单词,此时过程如下:
- 上帝有两个坛子,一个坛子装的是doc-topic骰子,一个坛子装的是topic-word骰子;
- 上帝随机从第二个坛子中独立的取出K个topic-word骰子,编号1到K;
- 每次生成一篇新文档前,上帝先从第一个坛子中随机取出一个doc-topic骰子,然后重复投掷这枚骰子N次,为每个单词生成一个topic编号z,重复如上过程处理每篇文档,生成语料中每个词的topic;
- 从头到尾,对语料中每个词,选择K个topic-word骰子中编号为z的那个,投掷这枚骰子,生成对应的单词;
因为M篇文档的生成过程相互独立,所以M篇文档会对应M个独立的Dirichlet-Multinomial结构,下图 α ⃗ → θ m ⃗ → z m ⃗ \vec{\alpha}\to\vec{\theta_{m}}\to\vec{z_m} α→θm→zm表示生成第m篇文档中所以词的topic,显然 α ⃗ → θ m ⃗ \vec{\alpha}\to\vec{\theta_{m}} α→θm对应于Dirichlet分布, θ m ⃗ → z m ⃗ \vec{\theta_{m}}\to\vec{z_m} θm→zm对应于Multinomial分布,因此参数 θ m ⃗ \vec{\theta_m} θm的后验分布仍然是Dirichlet分布。
z
m
⃗
\vec{z_m}
zm表示第m篇文档对应的主题向量,有
z
m
⃗
=
(
n
1
,
m
,
n
2
,
m
,
⋯
 
,
n
K
,
m
)
\vec{z_m}=(n_{1,m},n_{2,m},\cdots,n_{K,m})
zm=(n1,m,n2,m,⋯,nK,m),
z
k
,
m
z_{k,m}
zk,m表示第m篇文档中主题k的数量。第m篇文档在主题分布
θ
m
⃗
\vec{\theta_m}
θm给定的情况下,主题向量
z
m
⃗
\vec{z_m}
zm的概率为
p
(
z
m
⃗
∣
θ
m
⃗
)
=
∏
k
=
1
K
θ
k
,
m
n
k
,
m
p(\vec{z_m}|\vec{\theta_m})=\prod_{k=1}^K\theta_{k,m}^{n_{k,m}}
p(zm∣θm)=k=1∏Kθk,mnk,m
故第m篇文档的主题向量
z
m
⃗
\vec{z_m}
zm的生成概率为所有可能的主题分布下
z
m
⃗
\vec{z_m}
zm的概率的累积
p
(
z
m
⃗
∣
α
⃗
)
=
∫
p
(
z
m
⃗
∣
θ
m
⃗
)
p
(
θ
m
⃗
∣
α
⃗
)
d
θ
m
⃗
=
∫
p
(
z
m
⃗
∣
θ
m
⃗
)
D
i
r
(
θ
m
⃗
∣
α
⃗
)
d
θ
m
⃗
=
∫
∏
k
=
1
K
θ
k
,
m
n
k
,
m
1
Δ
(
α
⃗
)
∏
k
=
1
K
θ
k
,
m
α
k
−
1
d
θ
m
⃗
=
1
Δ
(
α
⃗
)
∫
∏
k
=
1
K
θ
k
,
m
n
k
,
m
+
α
k
−
1
d
θ
m
⃗
=
Δ
(
n
m
⃗
+
α
⃗
)
Δ
(
α
⃗
)
\begin{aligned} p(\vec{z_m}|\vec{\alpha}) &= \int p(\vec{z_m}|\vec{\theta_m})p(\vec{\theta_m}|\vec{\alpha})d\vec{\theta_m} \\ &= \int p(\vec{z_m}|\vec{\theta_m})Dir(\vec{\theta_m}|\vec{\alpha})d\vec{\theta_m} \\ &= \int \prod_{k=1}^K\theta_{k,m}^{n_{k,m}}\frac{1}{\Delta(\vec{\alpha})}\prod_{k=1}^K\theta_{k,m}^{\alpha_{k}-1}d\vec{\theta_m} \\ &= \frac{1}{\Delta(\vec\alpha)}\int\prod_{k=1}^K\theta_{k,m}^{n_{k,m}+\alpha_{k}-1}d\vec{\theta_m} \\ &= \frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})} \end{aligned}
p(zm∣α)=∫p(zm∣θm)p(θm∣α)dθm=∫p(zm∣θm)Dir(θm∣α)dθm=∫k=1∏Kθk,mnk,mΔ(α)1k=1∏Kθk,mαk−1dθm=Δ(α)1∫k=1∏Kθk,mnk,m+αk−1dθm=Δ(α)Δ(nm+α)
其中,
n
m
⃗
=
(
n
1
,
m
,
n
2
,
m
,
⋯
 
,
n
K
,
m
)
\vec{n_m}=(n_{1,m},n_{2,m},\cdots,n_{K,m})
nm=(n1,m,n2,m,⋯,nK,m),
n
k
,
m
n_{k,m}
nk,m表示第m篇文档产生的第k个topic的数量。由于语料库中M篇文档的生成过程相互独立,所以有M个相互独立的Dirichlet-Multinomial共轭分布,从而整个语料库的topic生成概率为
p
(
z
⃗
∣
α
⃗
)
=
∏
m
=
1
M
p
(
z
m
⃗
∣
α
⃗
)
=
∏
m
=
1
M
Δ
(
n
m
⃗
+
α
⃗
)
Δ
(
α
⃗
)
p(\vec{z}|\vec{\alpha})=\prod_{m=1}^Mp(\vec{z_m}|\vec{\alpha})=\prod_{m=1}^M\frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})}
p(z∣α)=m=1∏Mp(zm∣α)=m=1∏MΔ(α)Δ(nm+α)
类似的,在确定单词主题后,K个主题也会对应K个独立的Dirichlet-Multinomial共轭分布,下图 β ⃗ → φ k ⃗ → w k ⃗ \vec{\beta}\to{\vec{\varphi_k}}\to\vec{w_k} β→φk→wk表示在第K个主题下生成按照topic-word分布生成单词的过程,显然 β ⃗ → φ k ⃗ \vec{\beta}\to{\vec{\varphi_k}} β→φk对应于Dirichlet分布, φ k ⃗ → w k ⃗ {\vec{\varphi_k}}\to\vec{w_k} φk→wk对应于Multinomial分布,因此参数 φ k ⃗ \vec{\varphi_k} φk的后验分布仍然是Dirichlet分布。
w
k
⃗
\vec{w_k}
wk表示在主题k下生成的单词的词向量,有
w
k
⃗
=
(
w
1
,
k
,
w
2
,
k
,
⋯
 
,
w
V
,
k
)
\vec{w_k}=(w_{1,k},w_{2,k},\cdots,w_{V,k})
wk=(w1,k,w2,k,⋯,wV,k),
w
v
,
k
w_{v,k}
wv,k表示主题k下生成单词
w
v
w_v
wv的个数。在主题k的topic-word分布
φ
k
⃗
\vec{\varphi_k}
φk给定的情况下,词向量
w
k
⃗
\vec{w_k}
wk生成概率为
p
(
w
k
⃗
∣
φ
k
⃗
)
=
∏
v
=
1
V
φ
v
,
k
n
v
,
k
p(\vec{w_k}|\vec{\varphi_k})=\prod_{v=1}^V\varphi_{v,k}^{n_{v,k}}
p(wk∣φk)=v=1∏Vφv,knv,k
故词向量
w
k
⃗
\vec{w_k}
wk的生成概率为在给定主题k下所有可能的topic-word分布
φ
k
⃗
\vec{\varphi_k}
φk下
w
k
⃗
\vec{w_k}
wk生成概率的累积
p
(
w
k
⃗
∣
z
k
,
β
⃗
)
=
∫
p
(
w
k
⃗
∣
φ
k
⃗
)
p
(
φ
k
⃗
∣
β
⃗
)
d
φ
k
⃗
=
∫
p
(
w
k
⃗
∣
φ
k
⃗
)
D
i
r
(
φ
k
⃗
∣
z
k
,
β
⃗
)
d
φ
k
⃗
=
∫
∏
v
=
1
V
φ
v
,
k
n
v
,
k
1
Δ
(
β
⃗
)
∏
v
=
1
V
φ
v
,
k
β
v
−
1
d
φ
k
⃗
=
1
Δ
(
β
⃗
)
∫
∏
v
=
1
V
φ
v
,
k
n
v
,
k
+
β
v
−
1
d
φ
k
⃗
=
Δ
(
n
k
⃗
+
β
⃗
)
Δ
(
β
⃗
)
\begin{aligned} p(\vec{w_k}|z_k,\vec{\beta}) &= \int p(\vec{w_k}|\vec{\varphi_k})p(\vec{\varphi_k}|\vec{\beta})d\vec{\varphi_k} \\ &= \int p(\vec{w_k}|\vec{\varphi_k})Dir(\vec{\varphi_k}|z_k,\vec{\beta})d\vec{\varphi_k} \\ &= \int \prod_{v=1}^V\varphi_{v,k}^{n_{v,k}}\frac{1}{\Delta(\vec{\beta})}\prod_{v=1}^V\varphi_{v,k}^{\beta_v-1}d\vec{\varphi_k} \\ &= \frac{1}{\Delta(\vec{\beta})}\int\prod_{v=1}^V\varphi_{v,k}^{n_{v,k}+\beta_{v}-1}d\vec{\varphi_k}\\ &= \frac{\Delta(\vec{n_k}+\vec{\beta})}{\Delta(\vec{\beta})} \end{aligned}
p(wk∣zk,β)=∫p(wk∣φk)p(φk∣β)dφk=∫p(wk∣φk)Dir(φk∣zk,β)dφk=∫v=1∏Vφv,knv,kΔ(β)1v=1∏Vφv,kβv−1dφk=Δ(β)1∫v=1∏Vφv,knv,k+βv−1dφk=Δ(β)Δ(nk+β)
其中,
n
k
⃗
=
(
n
1
,
k
,
n
2
,
k
,
⋯
 
,
n
V
,
k
)
\vec{n_k}=(n_{1,k},n_{2,k},\cdots,n_{V,k})
nk=(n1,k,n2,k,⋯,nV,k),
n
v
,
k
n_{v,k}
nv,k表示主题k下生成单词
w
v
w_v
wv的个数。因为语料中K个topic生成单词的过程相互独立,有K个独立的Dirichlet-Multinomial共轭分布,所以整个语料中单词生成概率为
p
(
w
⃗
∣
z
⃗
,
β
⃗
)
=
∏
k
=
1
K
p
(
w
k
⃗
∣
z
k
,
β
⃗
)
=
∏
k
=
1
K
Δ
(
n
k
⃗
+
β
⃗
)
Δ
(
β
⃗
)
p(\vec{w}|\vec{z},\vec{\beta})=\prod_{k=1}^Kp(\vec{w_k}|z_k,\vec{\beta})=\prod_{k=1}^K\frac{\Delta(\vec{n_k}+\vec{\beta})}{\Delta(\vec{\beta})}
p(w∣z,β)=k=1∏Kp(wk∣zk,β)=k=1∏KΔ(β)Δ(nk+β)
所以
p
(
w
⃗
,
z
⃗
∣
α
⃗
,
β
⃗
)
=
p
(
w
⃗
∣
z
⃗
,
β
⃗
)
p
(
z
⃗
∣
α
⃗
)
=
∏
k
=
1
K
Δ
(
n
k
⃗
+
β
⃗
)
Δ
(
β
⃗
)
∏
m
=
1
M
Δ
(
n
m
⃗
+
α
⃗
)
Δ
(
α
⃗
)
\begin{aligned} p(\vec{w},\vec{z}|\vec{\alpha},\vec{\beta}) &= p(\vec{w}|\vec{z},\vec{\beta})p(\vec{z}|\vec{\alpha}) \\ &= \prod_{k=1}^K\frac{\Delta(\vec{n_k}+\vec{\beta})}{\Delta(\vec{\beta})}\prod_{m=1}^M\frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})} \end{aligned}
p(w,z∣α,β)=p(w∣z,β)p(z∣α)=k=1∏KΔ(β)Δ(nk+β)m=1∏MΔ(α)Δ(nm+α)
有了联合分布
p
(
w
⃗
,
z
⃗
∣
α
⃗
,
β
⃗
)
p(\vec{w},\vec{z}|\vec{\alpha},\vec{\beta})
p(w,z∣α,β),我们可以利用Gibbs Sampling采样(Gibbs Sampling采样相关的内容将在另外博客中讲解)方法对参数进行计算。
至此,我们完成了LDA模型的推导,也明白了LDA模型的由来,最重要的是理解LDA模型是PLSA模型的贝叶斯改进版,参数不仅未知而且取值不固定。