- 博客(4)
- 收藏
- 关注
原创 my HMM
HMM 模型本节对隐马尔可夫模型进行了详细的公式推导,并实现了 HMM 模型中涉及到的三个经典问题。公式推导HMM 模型涉及到大量公式,本文以《统计学习方法》为基础对其中的公式进行了推导,为方便起见,以手写的形式进行了记录,字丑莫怪。HMM 代码实现本部分对上述公式进行了实现,涉及到了 HMM 模型中的前向算法、后向算法、baumwelch算法和viterbi算法,即分别对应第一部分中的概率计算、学习和预测。import numpy as npclass HMM:
2020-08-18 01:08:01 283
原创 my HMM for NER
HMM模型的参数转移概率(transition probabilities)转移概率 P(it=qi∣it−1=qj)P(i_{t}=q_i|i_{t-1}=q_j)P(it=qi∣it−1=qj) :在 ttt 时刻隐状态为 qiq_iqi、在 t+1t+1t+1 时刻转移到 qjq_jqj 的概率,其中隐状态 QhiddenQ_{hidden}Qhidden 的取值范围为 Q={q1,⋯ ,qN}Q=\{q_1, \cdots, q_N\}Q={q1,⋯,qN} 。上图是转移概
2020-08-11 22:50:17 326
原创 my Transformer
整体架构过程编码器负责把自然语言序列映射成为隐藏层, 解码器把隐藏层再映射为自然语言序列。输入自然语言序列到编码器:Why do we work?(为什么要工作);通过编码器得到隐藏层,再输入到解码器;输入<start>(起始)符号到解码器;得到第一个字"为";将得到的第一个字“为”落下来再输入到解码器;得到第二个字”什";将得到的第二字再落下来,直到解码器输出<????????????>(终止符),即序列生成完成。Transformerclass T
2020-08-01 16:02:26 166
原创 my Naive Bayes
原理贝叶斯定理:P(Y∣X)=P(XY)P(X)=P(X∣Y)P(Y)P(X)P(Y|X)=\frac{P(XY)}{P(X)}=\frac{P(X|Y) P(Y)}{P(X)}P(Y∣X)=P(X)P(XY)=P(X)P(X∣Y)P(Y)其中,P(X∣Y)=P(X(1)=x(1),⋯ ,X(n)=x(n)∣Y=ck)⟶条件独立假设=∏j=1nP(X(j)=x(j)∣Y=ck)P(X|Y)=P(X^{(1)}=x^{(1)}, \cdots, X^{(n)}=x^{(n)}|Y=c_{k}) \st
2020-08-01 15:07:54 132
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人