作者提供的代码
2021 AAAI
提出,没有关系的实体对会影响编码器的attention效果。
创新:
将更多的注意力放在有关系的实体对上,对路径重构。
重构方法最常用在神经机器翻译NMT上,解决翻译不够充分的问题。作者证明了用在DocRE效果也很好。
1. 异构图构建
假设一个文档有L个句子,每个句子有J个词。使用BILSTM对其进行编码。如上图所示,异构图包含提及结点、实体结点、句子结点。作者在指向相同实体的不同提及之间,还加了Mention-Coreference边。
2.编码器
使用图注意力网络对异构图的每个节点编码。
给定前 l − 1 l-1 l