NLTK
Sherryllll
这个作者很懒,什么都没留下…
展开
-
NLTK中使用Stanford parser
原文链接:http://blog.csdn.net/qq_19670461/article/details/42681551nltk工具包中有一个用于自然语言句法分析的文件夹parse(地址C:\Python27\Lib\site-packages\nltk\parse\stanford.py)。其中stanford.py就是我们要用的stanford parser的源文件,这里面有parser的接转载 2015-04-22 16:47:05 · 10250 阅读 · 5 评论 -
python nltk 基本操作
分词nltk.sent_tokenize(text) #按句子分割 nltk.word_tokenize(sentence) #分词 nltk的分词是句子级别的,所以对于一篇文档首先要将文章按句子进行分割,然后句子进行分词: 词性标注nltk.pos_tag(tokens) #对分词后的句子进行词性标注tags = [nltk.pos_tag(tokens) for token原创 2015-04-22 16:08:45 · 21659 阅读 · 0 评论