用stanfordcorenlp在python下的评论抽取和分析

本文介绍了如何在Python环境下安装和使用StanfordCoreNLP处理中文数据,强调了词性分析和依存句法分析在大型数据集上的应用,特别是对于评论分析的重要性。
摘要由CSDN通过智能技术生成

Stanfordcorenlp的安装


1:下载安装JDK 1.8及以上版本。
2:下载Stanford CoreNLP文件,解压。
3:处理中文还需要下载中文的模型jar文件,然后放到stanford-corenlp-full-2018-02-27根目录下即可(注意一定要下载这个文件,否则它默认是按英文来处理的,无法处理中文语言)。

使用

Python调用StanfordCoreNLP的使用方法:
使用pip安装stanfordcorenlp
简单使用命令:pip install stanfordcorenlp

在Python环境下调用stanfordcorenlp:
一般建议,实际运用时,通常需要做词性分析的数据集都较大,所以给出以下两种导入数据的方式供参考。

1:测试数据较短时,通常采用直接导入,如:
在这里插入图片描述
2:测试数据较大,且数据间规范化程度不够,噪声大,此时需要直接将整个未经处理的数据集直接导入且不影响接下来的数据处理(与原数据一致)。通常采用pandas来读取大数据集(常是.csv格式的),如:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值