论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取

论文提出了一种基于注意力图卷积神经网络(A-GCN)的方法,利用依存信息进行关系抽取。通过注意力机制筛选重要依存关系,结合依存关系类型提升模型性能。实验显示A-GCN在关系抽取任务上优于BERT和GCN/GAT,并在两层时表现最佳。
摘要由CSDN通过智能技术生成

bd97cc6e775035fa3e11fed0c7bf670a.png

笔记整理:王大壮

论文链接:https://aclanthology.org/2021.acl-long.344.pdf

动机

句法信息,特别是依存树,已经被广泛应用于关系提取,以更好地分析与给定实体相关联的上下文信息。然而大多数现有的研究都饱受依赖树噪声的影响,特别是当它们自动生成时。由于直接利用依存信息可能会引入混淆,所以需要对依存信息进行筛选。为此,本文通过注意力图卷积神经网络(A-GCN)来辨别不同词依存的重要性,同时考虑到不同依存关系类型对关系分类的作用,在模型中也引入了依存关系类型的信息。

论文方法

关系抽取旨在辨别给定文本中提及的实体之间的关系。

本文方法可以分为以下两步,模型整体框架如下:

018e86b98bb57b75dfb6be2d4c5872c3.png

1.考虑依存类别的注意力图神经网络

a)通过依存句法树构建邻接矩阵A(存储两次之间是否存在依存关系:两词之间有关系为1,没关系为0);

基于注意力机制的深度强化学习是一种结合了强化学习和深度学习的方法,用于学习多跳关系路径并提高传统方法的效率、泛化能力和可解释性。\[2\]在这种方法中,注意力机制被引入以帮助模型关注重要的信息。通过深度学习和强化学习的结构化感知,模型可以根据已知实体和关系推断出未知实体,并生成清晰且可解释的输出。这种方法的目标是最大化长期的累积奖励值,以完成特定的任务。\[1\]注意力机制的引入可以帮助模型更好地处理信息超载问题,类似于人脑通过注意力来解决大量输入信息的问题。\[3\]通过结合注意力机制和深度强化学习,可以提高模型的性能和应用范围。 #### 引用[.reference_title] - *1* *3* [深度学习(五、注意力机制与强化学习以及目前主要应用)](https://blog.csdn.net/qq_14835271/article/details/124807173)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [论文浅尝 | ​ADRL:一个基于注意力机制的知识谱深度强化学习框架](https://blog.csdn.net/TgqDT3gGaMdkHasLZv/article/details/106464131)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值