【论文阅读】Improving Document-level Relation Extraction via Contextualizing Mention Representations and W

本文档介绍了如何通过上下文化提及表示和加权提及对来改进文档级关系抽取。主要包含四个步骤:embedding层结合word, 实体类型和共指的embedding;encode层使用堆叠的BILSTM;共同Attender和集成Attender利用Transformer获取重要提及的上下文;最后,聚合层和输出层采用多实例学习整合预测结果。" 82359325,7903315,Java实现Modbus协议与BW500皮带秤通讯,"['Java开发', '协议通讯', '工业控制', '数据采集', 'Modbus']
摘要由CSDN通过智能技术生成

ICKG 2020
作者提供的源代码

Improving Document-level Relation Extraction via Contextualizing Mention Representations and Weighting Mention Pairs

在这里插入图片描述

1. embedding层

每一个单词搞成word embedding,实体类型embedding,共指embedding,这三者的拼接。
将对应于同一实体的提及赋值为相同的实体id,并将实体id映射到向量中作为共指embedding。

2. encode层

把上一层的embedding送入N层堆叠的BILSTM,将BILSTM最后一层的输出送入线性层,用Relu激活一下。
在这里插入图片描述

3. Attender 层

说白了都是用单层的trans

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值