HMM和N-gram、贝叶斯网络的区别

1、HMM

一个参数:\lambda(A,B,\pi,Q,V)

两个假设:

  • 观测独立假设,观测只与当前状态有关,
  • 马尔可夫假设t时刻的状态只与t-1时刻的状态有关

三个问题:

  • 概率计算问题,给定观测集合O和模型参数\lambdaP(O\mid \lambda )
  • 学习问题,由观测序列O求模型参数\lambda使P(O\mid \lambda )的概率最大
  • 预测问题,由观测序列O和模型参数\lambda,求最可能的状态序列)

参考:https://blog.csdn.net/qq_19446965/article/details/90441380

2、N-gram

语言模型:对于任意的词序列w_{1},w_{2},w_{3},...,w_{n},它能够计算出这个序列是一句话的概率

能够计算p(w_{i}|w_{1},w_{2},w_{3},...,w_{i-1})的模型就是语言模型,其中w_{i}单词。

1、马尔可夫假设:每个词只依赖前n个词

 2、贝叶斯定理

P(AB)=P(A)*P(B|A)=>p(w_{n}|w_{n-1})=\frac{C(w_{n-1}w_{n})}{C(w_{n-1})}

参考:https://blog.csdn.net/qq_19446965/article/details/118858453

3、贝叶斯网络

待续。。。

4、HMM和N-gram区别

在情感分析时有一句话(我喜欢打篮球,也喜欢跑步),N-gram中就是出来了两个不喜欢而已,然后词频加1算概率,而HMM还有个状态的加成,HMM会有一个正负之间的转移矩阵。比如只是出现不喜欢,这句话属于负样本的概率为0.7,但是如果前面出现了不喜欢,后面又出现了不喜欢,这句话属于负样本的概率可能就是0.9。就是前面的状态会对后面的状态有影响,这点就不一样了。
其次,HMM还能生成自己的句子,如果告诉你某句话是属于正样本,它可以猜测这个正样本可能长什么样。比如它会猜一句'我喜欢电视'。这点N-gram应该干不了

5、HMM和贝叶斯网络

概念不同:HMM模型中每个节点代表一个状态变量,状态变量产生观测变量;贝叶斯网络模型中一个节点可以有多个状态变量,每个状态对应一个状态值(例如概率)。
目标不同:HMM模型的目标通常是给出最有可能的结果,不关心其可信度,虽然它完全可以求出;贝叶斯的目标是给出每个结果及其置信度,从而为决策提供参考。
此外很多地方都是大致相同,下面将相同点和不同点结合起来比较。

相同点:不同点
都给前提条件:HMM叫做观测变量序列(序列);贝叶斯网络叫做证据变量集(集合)。
都提到隐变量:HMM一定包含不可观测的隐变量,也就是观测变量背后的不可见的状态变量;贝叶斯网络可能包含隐变量(此时用梯度下降法),也可能不含隐变量(类似贝叶斯分类器)。有没有隐变量完全看给定的前提条件是否覆盖除输出之外的全部节点
都包含条件概率,有一定独立性:
HMM中当前状态只与前一状态有关,与其他时刻状态无关。状态随时间转移,当前观测变量由当前状态决定;
贝叶斯网络中每一个节点受制于其父节点,独立于其他节点。没有时间序列的概念,节点间是逻辑上确定的因果关系。
也就是说,HMM模型是一条线从左到右计算出的。贝叶斯网络可以从任何一个点输入,从而得到所有点的输出。从这个角度看,有人形象地将贝叶斯网络模型比作马尔科夫链的非线性扩展。


参考:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值