NLP
LandscapeMi
这个作者很懒,什么都没留下…
展开
-
NLP:中文分词
结巴分词:https://github.com/fxsjy/jieba斯坦福分词:http://www.zmonster.me/2016/06/08/use-stanford-nlp-package-in-nltk.htmlhttp://acepor.github.io/2015/12/22/Stanford-Cn/分词算法1. 查找字典算法基于字典匹配1.1 词的查找方法Trie树三原创 2016-09-30 14:27:55 · 662 阅读 · 0 评论 -
NLP:词性标准
1. 基于统计模型的词性标准1.1 HMM1.2 CRF2. 基于规则的词性标准原创 2016-10-01 11:41:00 · 1368 阅读 · 0 评论 -
NLP:实体识别
实体识别算法1.1 有监督的算法HMM最大熵svmcrf决策树1.2 半监督的算法自举学习1.3 无监督的算法词汇聚类1.4 混合方法2 分类2.1 crf的算法2.2原创 2016-10-01 11:49:23 · 2503 阅读 · 0 评论 -
NLP:stanfordNLP
http://www.zmonster.me/2016/06/08/use-stanford-nlp-package-in-nltk.htmlhttp://stanfordnlp.github.io/CoreNLP/http://blog.csdn.net/ltbylc/article/details/85579651. stanfordNLP分词: StanfordTokenizer词性标注:原创 2016-10-03 08:17:46 · 3805 阅读 · 4 评论 -
NLP:总结
1. 分词结巴分词:https://github.com/fxsjy/jieba斯坦福分词:http://www.zmonster.me/2016/06/08/use-stanford-nlp-package-in-nltk.htmlhttp://acepor.github.io/2015/12/22/Stanford-Cn/2. 词性标准3. 实体识别4. 句子分析5. 文法分析6. 文本原创 2016-09-30 00:02:35 · 566 阅读 · 0 评论 -
NLP:nltk+stanfordNLP
1. NLTKimport nltkform nltk.book import *2. NLTK中使用stanfordNLPhttp://www.zmonster.me/2016/06/08/use-stanford-nlp-package-in-nltk.html https://github.com/nltk/nltk/wiki/Installing-Third-Party-Softwar原创 2016-10-19 11:16:02 · 736 阅读 · 0 评论