机器学习(十六)——隐式狄利克雷划分

http://antkillerfarm.github.io/

隐式狄利克雷划分

Latent Dirichlet Allocation,简称LDA。注意不要和Linear Discriminant Analysis搞混了。

这方面的文章,首推rickjin(靳志辉)写的《LDA数学八卦》一文。全文篇幅长达55页,我实在没有能力写的比他更好,因此这里就做一个摘要好了。

注:靳志辉,北京大学计算机系计算语言所硕士,日本东京大学情报理工学院统计自然语言处理方向博士。2008年加入腾讯,主要工作内容涉及统计自然语言处理和大规模并行机器学习工具的研发工作。目前为腾讯社交与效果广告部质量研发中心总监,主要负责腾讯用户数据挖掘、精准广告定向、广告语义特征挖掘、广告转化率预估等工作。
他写的另一篇文章《正态分布的前世今生》,也是统计界著名的科普文,非常值得一看。

马氏链及其平稳分布

Markov chain的定义如下:

P(Xt+1=x|Xt,Xt1,)=P(Xt+1=x|Xt)

即状态转移的概率只依赖于前一个状态的随机过程。

注:上面是1阶Markov过程的定义。类似的还可以定义n阶Markov过程,即状态转移的概率只依赖于前n个状态的随机过程。

Andrey(Andrei) Andreyevich Markov,1856~1922,俄国数学家。圣彼得堡大学博士,导师Pafnuty Chebyshev。最早研究随机过程的数学家之一。圣彼得堡学派的第二代领军人物,俄罗斯科学院院士。
虽然现在将随机过程(stochastic process)划为数理统计科学的一部分,然而在19世纪末期,相关的研究者在学术界分属两个不同的团体。其中最典型的就是英国的剑桥学派(Pearson、Fisher等)和俄国的圣彼得堡学派(Chebyshev、Markov等)。因此将Markov称为统计学家是非常错误的观点。

一些非周期的马氏链,经过若干次的状态转移之后,其状态概率会收敛到一个特定的数值,即平稳分布(stationary distribution)。

如各参考文献所示,这里一般会举社会学上的人口分层问题,引出马氏链的极限和平稳分布的概念。这里要特别注意马氏链收敛定理以及它的具体含义。

细致平稳条件:如果非周期马氏链的转移矩阵P和分布 π(x) 满足

π(i)Pij=π(j)Pjifor alli,j

π(x) 是马氏链的平稳分布,上式被称为细致平稳条件(detailed balance condition)。

满足细致平稳条件的马氏链,其后续状态都是平稳分布状态,不会再改变。

注:细致平稳条件,比平稳分布的条件要强,因此它是平稳分布的充分条件,而非必要条件。

参考:

http://blog.csdn.net/lanchunhui/article/details/50451620

http://blog.csdn.net/pipisorry/article/details/46618991

MCMC

对于给定的概率分布 p(x) ,我们希望能有便捷的方式生成它对应的样本。由于马氏链能收敛到平稳分布,于是一个很的漂亮想法是:如果我们能构造一个转移矩阵为P的马氏链,使得该马氏链的平稳分布恰好是 p(x) ,那么我们从任何一个初始状态 x0 出发沿着马氏链转移,得到一个转移序列 x0,x1,x2,xn,xn+1 ,如果马氏链在第n步已经收敛了,于是我们就得到了 π(x) 的样本 xn,xn+1

Markov Chain Monte Carlo算法的核心是引入一个参数 α(i,j) 使得一个普通的马氏链,变成一个满足细致平稳条件的马氏链。即:

p(i)q(i,j)α(i,j)Q(i,j)=p(j)q(j,i)α(j,i)Q(j,i)

以上即为Metropolis算法。

注:Nicholas Constantine Metropolis,1915~1999,希腊裔美籍物理学家。芝加哥大学博士,反复供职于Los Alamos和芝加哥大学。(其实也就这俩地方,只不过这边干几年到那边去,那边教几年书再回这边来,这么进进出出好几个来回而已)“曼哈顿计划”的主要科学家之一,战后主持MANIAC计算机的研制。

α 的大小,决定了马氏链的收敛速度。 α 越大,收敛越快。因此又有Metropolis–Hastings算法,其关键公式为:

α(i,j)=min{p(j)q(j,i)p(i)q(i,j),1}

注:Wilfred Keith Hastings,1930~2016,美国统计学家,多伦多大学博士,维多利亚大学教授。

Gibbs Sampling

这个算法虽然以Gibbs命名,但却是Geman兄弟于1984年研究Gibbs random field时,发现的算法。

注:Josiah Willard Gibbs,1839~1903,美国科学家。他在物理、化学和数学方面都有重大理论贡献。耶鲁大学博士和教授。统计力学的创始人。

Donald Jay Geman,1943年生,美国数学家。美国西北大学博士,布朗大学教授。随机森林算法的早期研究者之一。

Stuart Alan Geman,1949年生,美国数学家。MIT博士,约翰霍普金斯大学教授。美国科学院院士。最早将Markov random field(MRF)应用于机器视觉和机器学习。

因为高维空间中,沿坐标轴方向上的两点之间的转移,满足细致平稳条件。因此,Gibbs Sampling的核心就是沿坐标轴循环迭代采样,该算法收敛之后的采样点即符合指定概率分布。

这里需要特别指出的是,Gibbs Sampling比Metropolis–Hastings算法高效的原因在于:Gibbs Sampling每次沿坐标轴的转移是必然会被接受的,即 α=1

Unigram Model

假设我们的词典中一共有V个词 v1,v2,vV ,那么最简单的Unigram Model是定义一个V面的骰子,每抛一次骰子,抛出的面就对应产生一个词。

频率学派的Unigram Model如下图:

这里写图片描述

贝叶斯学派的Unigram Model如下图:

这里写图片描述

这里使用Dirichlet分布的原因在于,数据采用多项分布,而Dirichlet分布正好是多项分布的共轭先验分布。

Dir(p|α)+MultCount(n)=Dir(p|α+n)

和wiki上对Dirichlet分布的pdf函数的描述(参见《数学狂想曲(二)》中的公式1)不同,rickjin在这里采用了如下定义:

Dir(p|α)=1Δ(α)k=1Vpαk1kα=(α1,,αV)

其中:

Δ(α)=k=1Vpαk1kdp

可以看出两种描述中的 B(α) Δ(α) 是等价的。

下面我们来证明这个结论,即:

B(α)=k=1Vpαk1kdp(1)

证明:这里为了简化问题,令V=3。则根据《数学狂想曲(二)》中的公式1可得:

Dir(p|α)=1B(α1,α2,α3)pα111pα212pα313

对该pdf进行积分:

1B(α1,α2,α3)pα111pα212pα313dp1dp2dp3=1B(α1,α2,α3)pα111pα212pα313dp

由pdf的定义可知,上面的积分值为1。

因此:

B(α1,α2,α3)=pα111pα212pα313dp

证毕。

从上面的证明过程,可以看出公式1并不是恒等式,而是在Dirichlet分布下才成立的等式。这也是共轭先验分布能够简化计算的地方。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值