《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文

tagging scheme:

对每个关系生成单独的标签sequence,只有头实体和尾实体会被标注,其他被标注为O,此方法能解决重叠三元组问题

这张图是在rk关系下的模型图

input:a sentenc

经过bilstm进行编码得到句子向量{h1, h2......hn},然后应用注意机制来构建rk的特定句子表征。

Relation-Based Attention Mechanism(最重要的机制)

基于我们的假设,句子中的词在不同的关系下扮演不同的角色。为此,我们提出了一种基于关系的注意机制,为每个关系下的上下文词分配不同的权重。注意力得分按如下方式获得:

sg是全句向量 rk是关系 hi是词向量

这个公式计算的是hi这个词向量在这个关系对这句话的的贡献 

sk是经过attention的句子向量

Relational Gated Mechanism:

 sg是global representation

gk这个公式 是为了衡量 到底是sk关系的representation 还是sg这个global representation 对实体抽取更有用(保留的信息数)

uk是保留的关系信息

hi 词向量  

hik即为最终句子representation

Relation-Specific Entity Decoder:

hik喂入lstm

P (yki)表示在关系rk下第I个单词的预测标签的概率。 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值