中文语义角色标注 java_一文了解语义角色标注

本文介绍了语义角色标注(SRL)的基本概念,包括定义、常见方法,如基于成分句法树和依存句法树的方法,并提到了SRL对句法分析的依赖。文章还分享了相关评测标准CoNLL2008和2009,并推荐了两个Python库Nlpnet和Pyltp,用于SRL和相关NLP任务。Nlpnet支持预训练模型,而Pyltp则提供了分词、词性标注、依存分析和SRL等功能,但需要自行下载预训练模型和进行安装配置。
摘要由CSDN通过智能技术生成

原标题:一文了解语义角色标注

本文转自公众号:AI小白入门

60125e9785865f2930bc9a3395d35614.png

本文记录自然语言基础技术之语义角色标注学习过程,包括定义、常见方法、例子、以及相关评测,最后推荐python实战利器,并且包括工具的用法。

定义

先来看看语义角色标注在维基百科上的定义:Semantic role labeling, sometimes also called shallow semantic parsing, is a process in natural language processing that assigns labels to words or phrases in a sentence that indicate their semantic role in the sentence, such as that of an agent, goal, or result. It consists of the detection of the semantic arguments associated with the predicate or verb of a sentence and their classification into their specific roles.

语义角色标注(Semantic Role Labeling,简称 SRL)是一种浅层的语义分析。给定一个句子, SRL 的任务是找出句子中谓词的相应语义角色成分,包括核心语义角色(如施事者、受事者等) 和附属语义角色(如地点、时间、方式、原因等)。根据谓词类别的不同,又可以将现有的 SRL 分为动词性谓词 SRL 和名词性谓词 SRL。

常见方法

语义角色标注的研究热点包括基于成分句法树的语义角色标注和基于依存句法树的语义角色标注。同时,根据谓词的词性不同,又可进一步分为动词性谓词和名词性谓词语义角色标注。尽管各任务之间存在着差异性,但标注框架类似。

目前 SRL 的实现通常都是基于句法分析结果,即对于某个给定的句子,首先得到其句法分析结果,然后基于该句法分析结果,再实现 SRL。这使得 SRL 的性能严重依赖于句法分析的结果。

例子

以基于成分句法树的语义角色标注为例,任务的解决思路是以句法树的成分为单元,判断其是否担当给定谓词的语义角色:

角色剪枝:通过制定一些启发式规则,过滤掉那些不可能担当角色的成分。

角色识别:在角色剪枝的基础上,构建一个二元分类器,即识别其是或不是给定谓词的语义角色。

角色分类:对那些是语义角色的成分,进一步采用一个多元分类器,判断其角色类别。

相关评测

CoNLL会议2008、 2009 年对依存分析和语义角色标注联合任务进行评测。

CoNLL 2008:https://www.clips.uantwerpen.be/conll2008/

CoNLL 2009:http://ufal.mff.cuni.cz/conll2009-st/task-deion.html

Nlpnet

一个基于神经网络的自然语言处理任务的Python库。 目前提供词性标注,语义角色标记和依存分析功能。该系统的灵感来自SENNA。

Github地址:https://github.com/erickrf/nlpnet

预训练模型地址:http://nilc.icmc.usp.br/nlpnet/models.html#

# 安装:pip install nlpnet

# 国内源安装:pip install nlpnet -i https://pypi.tuna.tsinghua.edu.cn/simple

# 1.nlpnet是一个基于神经网络的自然语言处理任务的Python库。 目前,它支持词性标注、依存分析以及语义角色标记。

# 2.首先要下载预训练模型:http://nilc.icmc.usp.br/nlpnet/models.html#srl-portuguese 目前语义角色标注只提供了葡萄牙语的预训练模型

importnlpnet

tagger = nlpnet.SRLTagger( 'nlpnet-modelsrl-pt', language= 'pt')

sents = tagger.tag( u'O rato roeu a roupa do rei de Roma.')[ 0]

print(sents.arg_structures)

[( 'roeu',

{ 'A0': [ 'O', 'rato'],

'A1': [ 'a', 'roupa', 'do', 'rei', 'de', 'Roma'],

'V': [ 'roeu']})]

Pyltp

语言技术平台(LTP) 是由哈工大社会计算与信息检索研究中心历时11年的持续研发而形成的一个自然语言处理工具库,其提供包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等丰富、 高效、精准的自然语言处理技术。

Github地址:https://https://github.com/HIT-SCIR/pyltp

# pyltp安装有点麻烦-.-,这里记录window 10下的安装方法

# 1.首先,pip install pyltp安装报错:error: command 'C:Program Files (x86)Microsoft Visual Studio 14.0VCBINx86_amd64cl.exe' failed with exit status 2

# 安装cmake,下载地址,https://cmake.org/download/

# 安装VS2008 EXPRESS,下载网址:https://visualstudio.microsoft.com/zh-hans/vs/express/

# 2.然后,我选择使用python setup.py install安装

# 下载pyltp,地址:https://github.com/hit-scir/pyltp

# 下载ltp,地址:https://github.com/hit-scir/ltp

# 解压ltp,然后将解压之后文件命名为ltp,覆盖pyltp文件夹中的ltp

# 打开cmd,进入到pyltp目录下,找到setup.py

# 先执行命令:python setup.py build

# 然后执行命令:python setup.py install

# 使用里面的预训练模型,需要先下载,然后指定相应目录

# 下载地址:http://ltp.ai/download.html

# 要先进行分词,词性标注,依存分析

sentence = "我爱自然语言处理技术!"

frompyltp importSegmentor

seg = Segmentor #生成对象

seg.load( "pyltp-modelltp_data_v3.4.0cws.model") #加载分词预训练模型

seg_words = seg.segment(sentence)

print( " ".join(seg_words))

seg.release #释放资源

我 爱 自然 语言 处理 技术 !

frompyltp importPostagger

pos=Postagger

#加载词性预训练模型

pos.load( "pyltp-modelltp_data_v3.4.0pos.model")

words_pos=pos.postag(seg_words)

fork,v inzip(seg_words, words_pos):

print(k+ 't'+v)

pos.release

我 r

爱 v

自然 n

语言 n

处理 v

技术 n

! wp

frompyltp importParser

parser=Parser

parser.load( "pyltp-modelltp_data_v3.4.0parser.model")

arcs=parser.parse(seg_words,words_pos)

print([(arc.head,arc.relation) forarc inarcs])

parser.release

[( 2, 'SBV'), ( 0, 'HED'), ( 4, 'ATT'), ( 5, 'FOB'), ( 2, 'VOB'), ( 5, 'VOB'), ( 2, 'WP')]

frompyltp importSementicRoleLabeller

labeller = SementicRoleLabeller

labeller.load( "pyltp-modelltp_data_v3.4.0pisrl_win.model")

roles = labeller.label(seg_words,words_pos,arcs)

forrole inroles:

print(role.index, "".join(

[ "%s:(%d,%d)"% (arg.name, arg.range.start, arg.range.end) forarg inrole.arguments]))

labeller.release

1A0:( 0, 0)A1:( 2, 5)

4A1:( 5, 5)

代码已上传:https://github.com/yuquanle/StudyForNLP/blob/master/NLPbasic/SRL.ipynb

1.统计自然语言处理

2.中文信息处理报告-2016

往 期 推 荐

ID: StudyForAI

学习AI学习ai(爱)返回搜狐,查看更多

责任编辑:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值