2020年11月Coling
Graph Enhanced Dual Attention Network for Document-Level Relation Extraction. Bo Li, et al. COLING 2020 [pdf]
没有代码
引入了从句子到关系S2R和从关系到句子R2S的双向注意力机制。
创新:
- 双attention机制
- 正则化处理
- 引入证据支持向量作为注意力权重的监督信号
1.编码层
使用BILSTM对文档编码,将输入文档转化成1)词embedding 2)实体类型embedding 3)实体在docred首次出现的顺序embedding,得到H (n*2h)
-
使用max-pooling获得每个句子的语义表示
-
对于一个实体,在文档中可能有不同的实体提及。作者对于文档中位于第a到第b个词的实体提及j, 1 b − a + 1 ∑ l o c = a b H l o c \frac{1}{b-a+1}\sum^{b}_{loc = a}H_{loc} b−a+11∑loc=abHloc
e j e_{j} e