![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模式识别
阿珍爱上了阿强binz
这个作者很懒,什么都没留下…
展开
-
【模式识别】隐马尔可夫模型(HMM)
隐马尔可夫模型(HMM) 这里写目录标题隐马尔可夫模型(HMM)引言HMM模型定义模型两个假设HMM解决的三个基本问题1、Evaluation问题2、Learning问题3、Decoding问题Evaluation问题求解(前向算法和后向算法)前向算法 引言 机器学习领域分为两个流派:频率派和贝叶斯派。频率派逐渐发展为统计机器学习学科,其核心问题为优化问题。定义出定义一个模型,计算损失函数,再通过随机梯度下降、牛顿拟牛顿法等最优化方法进行求解。贝叶斯派发展出概率图模型,最终解决的是推断问题,通过计算后验概率原创 2020-10-24 00:43:00 · 1462 阅读 · 1 评论 -
【模式识别、朴素贝叶斯方法】贝叶斯估计
引言 参数估计问题是统计学中非常经典的问题,对于此类问题,我们将主要讨论两种最常用和很有效的方法,也就是:最大似然估计和贝叶斯估计。 最大似然估计(MLE)与最大后验概率估计(MAP)非常相似,具体内容可查看:【模式识别、朴素贝叶斯方法】最大似然估计(MLE)、最大后验概率估计(MAP) 虽然说最大似然估计和贝叶斯估计方法得到的结果通常是很接近的,但这两个方法的本质却有很大差别。最大似然估计(和最大后验概率估计)把待估计的参数看作是确定性的量,只是其取值未知,最佳估计就是使得产生已观测到的样本(即训练样本)原创 2020-10-21 18:54:40 · 482 阅读 · 1 评论 -
【模式识别】期望最大化算法(EM算法)
这里写目录标题引言EM算法EM算法流程:算法解释总结 引言 概率模型的参数估计方法(包括最大似然估计、最大后验概率估计以及贝叶斯估计)适用于概率模型中的变量均为观测变量的情况。当模型中含有隐变量时(例如:样本点的某些特征丢失或隐变量不可观测的情况下),这些方法便失去作用。**EM算法就是解决含有隐变量的概率模型参数的最大似然估计法。**EM算法的核心就是根据已有的数据递归估计似然函数。 EM算法 EM算法流程: 输入:观测变量数据Y,隐变量数据Z,联合分布P(Y,Z|θ),条件分布P(Z|Y,θ); 输出:原创 2020-10-20 14:06:50 · 496 阅读 · 1 评论 -
【模式识别、朴素贝叶斯方法】最大似然估计(MLE)、最大后验概率估计(MAP)
引言 贝叶斯公式中依据先验概率P(ωi)P(\omega_i)P(ωi)和类条件概率密度P(X∣ωi)P(X|\omega_i)P(X∣ωi)求得后验概率。贝叶斯决策论核心思想是非常简单,为了最小化风险,选择后验概率最大的类别(最小化误差概率)来设计最优分类器。但在实际应用中我的能获取的样本数据只有有限条且先验概率以及类条件概率均无法得知。在实际问题中,我们需要根据已有的数据设计出正确的分类器。 一个朴素的想法是利用手中的训练样本来估计问题中涉及到的先验概率及类条件概率密度函原创 2020-10-20 00:18:57 · 914 阅读 · 1 评论