一、准备
安装 pip install stanfordcorenlp
下载Standard的CoreNLP包,解压至python的Tools目录下,处理中文还需要下载中文的模型jar文件,然后放到stanford-corenlp-full-2018-02-27根目录下即可(注意一定要下载这个文件,否则它默认是按英文来处理的)。
二、使用
代码:
from stanfordcorenlp import StanfordCoreNLP
nlp = StanfordCoreNLP(r'D:\Python\Python37\Tools\stanford_NLP', lang='zh')
sente='配置好数据库之后,可以根据django来生成默认的数据表。'
nlp.word_tokenize(sente)
效果演示:
三、NLP功能
1.中文分词:nlp.word_tokenize(sente)
<