自然语言处理-LDA主题模型

LDA主题模型
哈尔滨工程大学-537

一、LDA主题模型简介
LDA(Latent Dirichlet Allocation)中文翻译为:潜在狄利克雷分布。LDA主题模型是一种文档生成模型,是一种非监督机器学习技术。它认为一篇文档是有多个主题的,而每个主题又对应着不同的词。一篇文档的构造过程,首先是以一定的概率选择某个主题,然后再在这个主题下以一定的概率选出某一个词,这样就生成了这篇文档的第一个词。不断重复这个过程,就生成了整篇文章(当然这里假定词与词之间是没有顺序的,即所有词无序的堆放在一个大袋子中,称之为词袋,这种方式可以使算法相对简化一些)。

LDA的使用是上述文档生成过程的逆过程,即根据一篇得到的文档,去寻找出这篇文档的主题,以及这些主题所对应的词。

白话解释:比如document1的内容为:[自从乔布斯去世之后,iPhone再难以产生革命性的创新了] 
通过上述的方法,document1将对应两个主题topic1,topic2,进而,主题topic1会对应一些词:[苹果创始人][苹果手机],主题topic2会对应一些词:[重大革新][技术突破]。于是LDA模型的好处显而易见,就是可以挖掘文档中的潜在词或者找到两篇没有相同词的文档之间的联系。

二、算法流程
(超详细,超通俗易懂,逻辑脉络超清晰)

我们以文档集合D中的文档d为例,文档d中包含单词序列<w1,w2,...wn><w1,w2,...wn>,wiwi表示第ii个单词,设d中有nn个单词; 
文档集合D中出现的全部词组成VocabularyVocabulary; 
首先将文档d作为算法的输入,并输入主题数K,此时d对应到各个主题的概率为θd=(pt1,pt2,...ptk)θd=(pt1,pt2,...ptk),ptipti为d对应第ii个主题的概率; 
此时输入到算法中的只有文档d和主题数K,那么pt1,pt2...ptkpt1,pt2...ptk的数值从何而来?

我们首先人为设置文档d中对应主题t1,t2,...tkt1,t2,...tk的词的个数,比如文档d中5个词对应主题t1t1,7个词对应主题t2t2,…,4个词对应主题tktk,那么此时,我们就人为确定了一个参数向量(5,7,…4),将这个向量记作α⃗ α→,这个我们人为设置的参数向量称为超参数。 
那么如何将超参数α⃗ α→转化为概率分布θd=(pt1,pt2,...ptk)θd=(pt1,pt2,...ptk)呢?

这里我们引入狄利克雷分布函数: 
Dirichlet(p1,p2,p3|α1,α2,α3)=Γ(α1+α2+α3)Γ(α1)Γ(α2)Γ(α3)pα1−11pα2−22pα3−33
Dirichlet(p1,p2,p3|α1,α2,α3)=Γ(α1+α2+α3)Γ(α1)Γ(α2)Γ(α3)p1α1−1p2α2−2p3α3−3
它所表达的含义简单来说就是,已知α1,α2,α3α1,α2,α3的条件下,概率p1,p2,p3p1,p2,p3的概率分布,也就是概率的概率,分布的分布。再直观点说就是:比如在已知α1,α2,α3α1,α2,α3为(5,7,4)(5,7,4)的条件下,样本点p1,p2,p3p1,p2,p3为(0.4,0.5,0.1)(0.4,0.5,0.1)的概率是多少。

那么我们将上述的三维DirichletDirichlet函数扩展为KK维,即在已知α⃗ α→的条件下,得到p⃗ p→的分布(α⃗ ,p⃗ α→,p→分别为K维向量)。KK维DirichletDirichlet公式如下: 
Dirichlet(p⃗ |α⃗ )=Γ(∑Kk=1αk)∏Kk=1Γ(αk)∏k=1Kpαk−1k
Dirichlet(p→|α→)=Γ(∑k=1Kαk)∏k=1KΓ(αk)∏k=1Kpkαk−1
至此,我们通过输入超参数α⃗ α→得到了文档d的关于K个主题的狄利克雷分布: 
θd=Dirichlet(α⃗ )
θd=Dirichlet(α→)

其含义显然,DirichletDirichlet的输入参数为α⃗ α→,得到的输出为可以理解为一个矩阵: 
(pt1,pt2,...ptk)(pt1,pt2,...ptk) 
............ 
............ 
(pt1,pt2,....ptk)(pt1,pt2,....ptk) 
即文档d对应各个主题tktk的概率分布的分布。
同理,我们可以将任一主题tktk产生各个词的概率表示出来。人为设置主题tktk产生的各个词的数量,即设置超参数,用向量η⃗ η→来表示。同上所述,将η⃗ η→作为DirichletDirichlet函数的输入参数,得到主题tktk产生各个词的狄利克雷分布: 
βk=Dirichlet(η⃗ )
βk=Dirichlet(η→)
此时我们已经得到了文档d对应各个主题的概率分布的分布(即狄利克雷分布)θdθd,以及文档tktk产生各个词的概率分布的分布βkβk,那么接下来,我们要从文档d中取出第i个词,求这个词对应各个主题的分布; 
换句大家熟悉的话来说就是:已知第i个词wiwi在文档d中出现n次,且已知它对应各个主题的概率(这里每个词对应各个主题的概率就是文档d对应各个主题的概率,二者同分布),求该词被各个主题产生的次数; 
这就等同于我们熟知的一共有n个球,且已知红球、黄球、绿球的概率分别为p1,p2,p3p1,p2,p3,求这n个求当中红球、黄球、绿球的个数。

那么如何通过文档d对应各个主题的分布θdθd得到文档中的每个词被各个主题产生的次数,进而重新得到文档d中对应各个主题的词的个数呢?

首先我们引入十分熟悉的多项式分布: 
multi(m1,m2,m3|n,p1,p2,p3)=n!m1!m2!m3!pm11pm22pm33
multi(m1,m2,m3|n,p1,p2,p3)=n!m1!m2!m3!p1m1p2m2p3m3

这个公式的意义总所周知:已知一共n个球,且知道每种颜色球的概率,就可以得到有m1m1个红球,m2m2个黄球,m3m3个绿球的概率。
那么同样将其扩展为K维,将θdθd作为参数,就可以得到文档d中第i个词wiwi对应的各个主题的多项式分布zdn=multi(θd)zdn=multi(θd) 
于是,非常值得庆幸,我们通过文档d对应各个主题的概率θdθd,进而得知文档d中各个词对应各个主题的概率,且知道这个词在文档d中的出现次数,于是求得这个词被各个主题的产生次数,遍历文档d中的每一个词,就可以得到新的文档d中对应各个主题的词的个数。 
白话举例:文档d对应主题t1,t2t1,t2的概率分别为pt1,pt2,pt1,pt2,,于是文档d中词w1w1对应的主题t1,t2,t1,t2,的概率也分别为pt1,pt2pt1,pt2,又得知词w1w1在文档d中出现了15次,于是得到词w1w1由主题t1,t2t1,t2产生的次数分别为10次、5次(这个是假设的); 
对文档d中的每个词都执行此操作,(假设文档中只有两个词)词w2w2由主题t1,t2t1,t2产生的次数分别为13次、2次,于是就能重新得到文档d中对应各个主题的词的数量,即对应主题t1,t2t1,t2的词的数量分别为2个、0个(初始的d中对应各个主题的词的数量是人为设定的超参数α⃗ α→)。

于是,我们最终得到了文档d对应各个主题的词的个数的更新值:记作向量n⃗ n→,我们将更新后的向量n⃗ n→再次作为狄利克雷分布的输入向量,即Dirichlet(θd|n⃗ )Dirichlet(θd|n→),就会又会得到文档d对应各个主题的概率的更新值,即更新的θdθd,如此反复迭代,最终得到收敛的θdθd,即为我们要的结果。

有了以上的经验,主题tktk产生各个词的概率βkβk可以同样处理,对于产生文档d中的第ii个词wiwi的各个主题的分布为: 
multi(βi)multi(βi),于是用同上面相同的方法,可以得到更新后的各个主题产生各个单词的数量:记作向量m⃗ m→,将向量m⃗ m→作为新的参数再次带入狄利克雷分布Dirichlet(βk|m⃗ )Dirichlet(βk|m→),就又会得到每个主题产生各个词的概率,即更新的βkβk,如此反复迭代,最终得到收敛的βkβk,即所求结果。

得到了收敛的θdθd和βkβk,算法就大功告成了,这时,该算法就会根据输入的文档d,找到潜在主题下的相关词啦!!!!
————————————————
版权声明:本文为CSDN博主「weixin_41090915」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_41090915/article/details/79058768

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值