中文依存句法结构分析

#!/usr/bin/python3
# -*- coding:utf-8 -*-

"""
@Author  : heyw
@Time    : 2020/1/14 10:34
@Software: PyCharm
@File    : stanford.py
"""
from stanfordcorenlp import StanfordCoreNLP
from nltk.tree import Tree

# 模型下载地址:https://nlp.stanford.edu/software/corenlp-backup-download.html
# 笔者将模型放置于AIAPP目录下,并将模型文件夹改名为stanfordnlp
nlp = StanfordCoreNLP(r'C:\AIAPP\stanfordnlp', lang='zh') # 英文使用 lang='en'

sentence = "我爱北京天安门。"

# 分词
print("分词:", nlp.word_tokenize(sentence))
# 词性标注
print("词性标注:", nlp.pos_tag(sentence))
# 依存分析
print("依存分析:", nlp.dependency_parse(sentence))
# 句法树解析
print("句子解析:\n", nlp.parse(sentence))
# 生成节点关系列表
tree = Tree.fromstring(nlp.parse(sentence))
print("节点关系:",tree.productions())
# 绘制句法树
tree.draw()
分词: ['我爱', '北京', '天安门', '。']
词性标注: [('我爱', 'VV'), ('北京', 'NR'), ('天安门', 'NR'), ('。', 'PU')]
依存分析: [('ROOT', 0, 1), ('name', 3, 2), ('dobj', 1, 3), ('punct', 1, 4)]
句子解析:
 (ROOT
  (IP
    (VP (VV 我爱)
      (NP (NR 北京) (NR 天安门)))
    (PU 。)))
节点关系: [ROOT -> IP, IP -> VP PU, VP -> VV NP, VV -> '我爱', NP -> NR NR, NR -> '北京', NR -> '天安门', PU -> '。']

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值