Span-Level Model for Relation Extraction

在这里插入图片描述

Abstract

顺序解码器无法对重叠的实体提及建模,并且存在级联错误。为了解决这个问题,本文提出了一个直接对所有可能的span建模,并执行联合实体提及检测和关系提取模型。

1.Instruction

本文提出了一个简单的基于bi-lstm的模型,为每个可能的span生成span表示。然后将相同的span表示用于对所有检测到的实体提及对执行关系抽取。

2. Model

2.1 Span Representation Generation

给定具有T个token的文档D,可能存在的span为: N = T ( T + 1 ) / 2 N=T(T+1)/2 N=T(T+1)/2,span i由START<i>,END <i>表示span的开始和结尾,目标是为了获取每个span的span表示 g i g_i gi

2.1.1 Raw Token Embeddings

对上下文嵌入使用固定的ELMo,对词嵌入、字符嵌入、从头开始训练,使用固定的Senna。考虑到相对较小的数据集,为了防止过拟合,作者只训练了字符嵌入。
对原始token x t x_t xt使用BiLSTM获得 x t ∗ x_t^* xt
在这里插入图片描述

2.1.2 Span Representation

使用注意力来创建特定任务的span表示,每个span的特征向量为:
在这里插入图片描述
对于每个span i,其span 表示 g i g_i gi表示为:
在这里插入图片描述

2.2 Entity Mention Detection

主要的功能是预测每个span的实体类型。通过计算实体类型得分的向量来预测实体类型。
在这里插入图片描述

2.3 Relation Extraction

本文仅考虑有序的二元关系(每一对有序的选择span),使两个span来同一个句子。对于每一对span,首先计算一个嵌入 r i , j r_{i,j} ri,j的有序对:
在这里插入图片描述
使用嵌入 r i , j r_{i,j} ri,j的有序对来计算关系类型得分的向量。

M L P r e MLP_{re} MLPre的输出大小以及 p i , j r e p_{i,j}^{re} pi,jre的大小等于RE类的数量。

2.4 Loss

在这里插入图片描述

3. Experiments

在这里插入图片描述

4. 启示

  1. span提取的方法非常经典,有必要复现一下这篇论文的代码。
  2. 老生常谈的问题:计算每一对span的关系,所需要的时间复杂度比较大
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

「已注销」

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值