Stanford CoreNLP超简单安装及简单使用,句法分析及依存句法分析

Stanford CoreNLP超简单安装及简单使用,句法分析及依存句法分析,使用jupyter notebook

今天我们来使用Stanford CoreNLP进行简单的句法分析,我使用的是jupyter notebook。网上关于Stanford CoreNLP工具的安装五花八门,大家其实完全没必要看,在jupyter notebook上面一句话就行了。

Stanford CoreNLP安装

首先安装Stanford CoreNLP工具,
代码:

!pip install stanfordcorenlp

在这里插入图片描述因为我之前已经运行过这句话,所以直接显示已经安装好了,大家在安装的时候可能也会出现warning,不过warning嘛,没必要管它。
接下来我们下载Stanford CoreNLP模型,大家直接到官网下载,又快又不会连带着下一些垃圾软件下来,百度上的一些东西,有时候会下载一群垃圾软件。
官网:https://stanfordnlp.github.io/CoreNLP/.
在这里插入图片描述
点击Download CoreNLP4.2.1进行下载,下载到任意位置都可以,这个没有什么要求。
因为我们需要对中文进行句法分析,所以大家在下载好这个包之后,还需要下载一个Chinese专属jar包。
这个也非常简单,我们看到左边侧栏有一个“usage”选项,点击去,然后点击Download。可以看到界面如下,我们下载Chinese对应的jar包。
在这里插入图片描述将Chinese对应的jar包解压后,放入我们之前下载好的Stanford CoreNLP包里面。如下:
在这里插入图片描述好啦,安装完成,接下来就可以使用啦!

Stanford CoreNLP使用

回到我们的jupyter notebook

from stanfordcorenlp import StanfordCoreNLP
#如果要用其他语言,需要单独设置
nlp = StanfordCoreNLP(r'E:\stanford-corenlp-4.2.0')
nlp_ch= StanfordCoreNLP(r'E:\stanford-corenlp-4.2.0', lang='zh')

其中nlp是处理英文的,nlp_ch是处理中文的。
接下来我们以“我希望所有喜欢我的人都能够幸福平平安安的过好这一辈子”为例来进行句法分析和依存句法分析。没错,相信大家已经看出来了,这次还是王一博语录,嘿嘿。

sen='我希望所有喜欢我的人都能够幸福平平安安的过好这一辈子'
print(nlp_ch.pos_tag(sen))
print(nlp_ch.parse(sen))

在这里插入图片描述
这次就这样啦,下次我们开始进行可视化,以及保存在json文件中。
完整代码和运行结果以及语料都已经上传到资源啦,欢迎大家下载,CSDN必须要设置成收费或积分,大家如果不着急,可以私聊我私发哦。
资源下载:https://download.csdn.net/download/weixin_46570668/18234525.
哦对啦,我开始把讲解更新B站和抖音啦,名字都叫猫猫头丁,欢迎大家来关注啊!!!
B站:https://space.bilibili.com/410893912.

  • 12
    点赞
  • 53
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 13
    评论
1. 下载Stanford CoreNLP 首先,需要下载Stanford CoreNLP。官网地址为:https://stanfordnlp.github.io/CoreNLP/ 。在下载页面选择适合自己系统的版本,下载后解压。 2. 启动Stanford CoreNLP 进入解压后的Stanford CoreNLP目录,执行以下命令启动Stanford CoreNLP服务: ```bash java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer -port 9000 -timeout 15000 ``` 这个命令会启动一个Stanford CoreNLP服务,监听9000端口,并且会在控制台输出一些信息。 3. 使用Stanford CoreNLP进行依存句法分析 Python中可以使用stanfordcorenlp库来连接Stanford CoreNLP服务,进行依存句法分析安装stanfordcorenlp库: ```bash pip install stanfordcorenlp ``` 使用代码: ```python import stanfordcorenlp # 连接Stanford CoreNLP服务 nlp = stanfordcorenlp.StanfordCoreNLP('http://localhost:9000') # 输入文本 text = 'I love natural language processing.' # 进行依存句法分析 result = nlp.dependency_parse(text) # 输出结果 print(result) # 关闭连接 nlp.close() ``` 输出结果: ```python [(2, 1, 'nsubj'), (2, 4, 'dobj'), (4, 3, 'amod'), (0, 2, 'root')] ``` 可以看到,结果是一个列表,每个元素代表一个依存关系,其中每个元素又是一个元组,包含三个元素:依存关系的头部、尾部和关系类型。 其他语言的使用方式与Python类似,只需要将连接Stanford CoreNLP服务和调用依存句法分析的代码翻译成相应语言的语法即可。
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

猫头丁

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值