standfordcorenlp

standfordcorenlp在python环境下的使用(中文分词、词性标注、命名实体分析、解析语法、解析语法关系)

操作环境:windows
需求:安装PyCharm、JDK1.8
第一步:
首先从stanford NLP网页下载两个包,分别是stanford-corenlp-full-2018-10-05.zip和中文处理包stanford-chinese-corenlp-2018-10-05-models.jar,下载后解压压缩包然后将stanford-chinese-corenlp-2018-10-05-models.jar放入压缩包中。
下载界面
下载界面
第二步:
安装Python的stanfordnlp库,在命令提示符中切换到安装Python的路径的Scripts文件夹下执行命令pip install stanforcorednlp如图:
安装standfordcorenlp库
安装完成后就可以开始使用了。

#   coding=utf-8

from stanfordcorenlp import StanfordCoreNLP

nlp = StanfordCoreNLP(r'E:\nlp\lib\stanford-corenlp-full-2018-10-05', lang="zh")

sentence = '清华大学位于北京。'
print("中文分词:")
print(nlp.word_tokenize(sentence))  # 中文分词
print("词性标注:")
print(nlp.pos_tag(sentence))  # 词性标注
print("命名实体分析:")
print(nlp.ner(sentence))  # 命名实体分析
print("解析语法:")
print(nlp.parse(sentence))  # 解析语法
print("解析语法关系:")
print(nlp.dependency_parse(sentence))  # 解析语法关系
nlp.close()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

运行有点慢,同时运行过程中非常占用内存和cpu,不要着急稍等一会。
结果如下图:
运行结果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值