【NLP】使用stanfordcorenlp进行中文分词出现空白问题

本文参考以下教程进行安装:

https://blog.csdn.net/sunflower_sara/article/details/106475583?spm=1001.2014.3001.5506

在安装完成后,进入pycharm进行编译运行时,发现英文可以正常分词,但是在中文分词时,只显示分词情况,不显示字符。

示例代码如下:

from stanfordcorenlp import StanfordCoreNLP
nlp = StanfordCoreNLP(r'下载盘符:\stanfordnlp\stanford-corenlp-full-2018-02-27')
nlp_ch = StanfordCoreNLP(r'下载盘符:\stanfordnlp\stanford-corenlp-full-2018-02-27', lang='zh')
eh_sentence = 'This is an example of tokenization.'
zh_sentence = '我是小明。'
print('Tokenize:', nlp.word_tokenize(eh_sentence))
print('Tokenize:', nlp_ch.word_tokenize(zh_sentence))
nlp.close()

在网上进行查阅后发现,在pycharm中安装stanfordcorenlp时,默认安装版本是3.9.1,而我下载的版本是3.8.0,版本不对应,此时,英文可以正常分词,而中文无法进行分词。在下载对应版本的stanfordcorenlp后,问题成功解决!

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值