NLP算法
文章平均质量分 79
warrioR_wx
Java C++ 菜鸟 外出务工 http://hlt.suda.edu.cn/~xwang/
展开
-
HMM之前向算法
HMM,隐马尔科夫模型。在5nlp上面讲的详细。网址http://www.52nlp.cn/hmm-learn-best-practices-one-introduction可以有这么一个有趣的联想。一对恋人中,女生有时候喜欢打男朋友,每天十二点可能发作一次。最奇怪是生气时候打,开心时候也打,有时候无缘无故平静还是打。晕。(假设想当天十二点的心情需要参照前天十二点的心情。)能看到的就是原创 2012-08-10 09:45:08 · 3798 阅读 · 1 评论 -
最小错误率训练
最近看Franz JosefOch的Paper--《Minimum Error Rate Training in Statistical MachineTranslation》。初读文章感觉云里雾里。找牛人们问问了,才算有些眉目。顺便瞧瞧网上的博客,顿时觉得眼前豁然开朗。 关于这篇论文的讲解,网上有位大虾写的文章 (click here)写的很详细。我就不在累赘的复述了。而是谈谈原创 2012-09-29 15:52:30 · 5104 阅读 · 0 评论 -
HMM之维特比算法
还是上节的妹子问题。http://blog.csdn.net/hellonlp/article/details/7849208现在是解码问题。什么是解码问题呢?请看下面。现在给定了一个妹子(指定模型HMM),有人告诉你某个连续五天妹子表现,即观察序列为(打, 不打, 打, 打, 不打)。再不是评估问题问你 这个观察序列以后出现的概率是多少。这回是需要你结合观察序列去推测这个妹子那几原创 2012-08-10 22:04:37 · 7872 阅读 · 2 评论 -
朴素贝叶斯法
看了看《统计学习方法》的第四章 朴素贝叶斯法。书中是这么介绍的:朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入\输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出y。说了很多,什么联合概率分布什么的。还是有点云里雾里。还是利用实际的例子说明这个问题。既然是分类问题,就举个简单的给人分原创 2012-08-16 16:10:07 · 4725 阅读 · 0 评论