3.4 StanfordCoreNLP分词命名实体提取

1.StanfordCoreNLP安装:

下载安装JDK 1.8及以上版本
下载Stanford CoreNLP文件,解压。
处理中文还需要下载中文的模型jar文件,然后放到stanford-corenlp-full-2016-10-31根目录下
pip安装standford CoreNLP:pip install stanfordcorenlp (可用豆瓣网安装)>pip install -i https://pypi.douban.com/simple stanfordcorenlp

2.分词和命名实体提取(这里加载非常缓慢,所以只用一个句子测试)

from stanfordcorenlp import StanfordCoreNLP

nlp = StanfordCoreNLP('D:/software/stanford-corenlp-full-2016-10-31', lang='zh')

sentence = '清华大学位于北京。'
print("中文分词:")
print(nlp.word_tokenize(sentence))  # 中文分词
print("词性标注:")
print(nlp.pos_tag(sentence))  # 词性标注
print("命名实体分析:")
print(nlp.ner(sentence))  # 命名实体分析

3.运行结果:
在这里插入图片描述
4.出现的问题
stanfordcorenlp 在做中文处理是返回值为

[’’, ‘’, ‘’, ‘’, ‘’]
[(’’, ‘NR’), (’’, ‘NN’), (’’, ‘VV’), (’’, ‘NR’), (’’, ‘PU’)]
[(’’, ‘ORGANIZATION’), (’’, ‘ORGANIZATION’), (’’, ‘O’), (’’, ‘GPE’), (’’, ‘O’)]

解决方法:

找到路径python安装目录\Lib\site-packages\stanfordcorenlp\corenlp.py
在这里插入图片描述
修改图中三处。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值