![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模式识别
文章平均质量分 91
ccaicaic
这个作者很懒,什么都没留下…
展开
-
topic model(LDA 主题模型)
LDA简介 在老师讲主题模型的时候看到这个LDA,刹时觉得很熟悉,在机器学习中,其实有两个LDA,一个是平时接触比较多的Linear Discriminant Analysis即线性判别分析,另一个便是这篇文章的主角Latent Dirichlet Allocation即隐含狄利克雷分布。 提出目的 用于推测文档(document)的主题分布,以及主题(topic)的词(word)分布;换个角度来说其实这个模型解决了文档和词汇的软聚类,即文档的主题分布概率可以当作文档聚类的指标,而词汇则归属于其隶属的主题而原创 2021-11-19 20:41:13 · 1964 阅读 · 0 评论 -
EM(期望最大)算法
前言 从机器学习到模式识别,已经遇到了很多次EM算法,但是好像并没有真正的理解,本篇文章将从浅到深,从通俗的语言到数学推导来讲解这个算法。 (这里默认大家都已经掌握了极大似然的思想) 简介 EM算法(Expectation-maximization algorithm),期望最大算法,是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。 EM算法经过两个步骤交替进行计算: 计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值; 最大化(M),最大化在原创 2021-11-19 18:43:21 · 1410 阅读 · 0 评论 -
GMM-HMM
需要训练的参数 1.对应于混淆矩阵B的高斯混合模型参数B 2.状态转移矩阵A 3.A中只有对应于自环和后继的状态转移概率需要被训练,其他项全都设置为零,并且不再改变 训练过程 Step 1:构建整个句子的HMM结构 Step 2:将A矩阵中对应于自环和后继的项初始化为0.5,其他项初始化为0 Step 3:用整个训练集的全集均值和方差对B矩阵进行初始化 Step 4:运行Baum-Welch算法的迭代过程。在每一次迭代中,计算前向概率和后向概率(计算方法见下文)以得到t时刻处于状态i的概率,然后将它用于更新原创 2021-11-10 13:31:50 · 994 阅读 · 0 评论