abap 函数远程启用的模块参数_AAAI 2017 | 基于语句级注意力与实体描述的远程监督关系抽取...

2fbd66b511ac60bd992f726a3eba1ba1.png

远程监督可将关系抽取扩展至包含大量关系的超大规模数据上。然而,已有方法在选择有效实例方面存在缺陷,而且缺少实体的背景知识。本文提出一种语句级的注意力模型用于选择有效实例,该模型在选择实例时充分利用来自知识库的监督信息。同时本文从Freebase和Wikipedia页面抽取实体的描述信息以补充背景知识。背景知识不仅为预测关系提供了更多信息,而且为注意力模块提供了更好的实体描述。三个实验的结果表明本文的方法优于所有的baseline方法。

76e34845b32041544d850a9c4a005a4d.png

论文地址:http://www.aaai.org/ocs/index.php/AAAI/AAAI17/paper/viewPaper/14491

引言

远程监督自动生成关系抽取训练数据的过程为:对于数据库中的三元组

,将数据集中同时包含实体
的全部语句作为关系
的训练实例。然而,远程监督生成的关系抽取训练数据通常存在误标问题(wrong label problem),因为同时包含两个实体的语句可能仅仅与同一个主题相关,而并不表达它们在知识库中存在的关系。

在多实例学习MIL(Multi-Instance Learning)中,对于知识库中的三元组
,同时包含实体
的全部语句组成一个包(bag)并且将
作为它的标签。Zeng等人在2015年将MIL与分段卷积神经网络PCNNs(Piecewise Convolutional Neural Networks)相结合(PCNNs+MIL),从包中选择最可能有效的一个语句用于预测关系,取得了较好的效果。

这种方法主要存在两个问题:1)一个包可能包含多个有效的语句,而只选择最可能有效的一个语句用于预测关系,显然没有充分利用包中的信息;2)实体描述提供的背景知识可帮助确定关系的类型,而目前已有方法没有在关系抽取中使用实体描述信息。

方法

本文提出的方法包括2个要点:1)语句级注意力模型APCNNs,使用PCNNs抽取语句的特征并通过注意力模块学习语句的权重;2)在APCNNs之上添加实体描述约束APCNNs+D,使用CNNs抽取实体描述的特征向量,并在APCNNs的目标函数上添加约束使其接近对应的实体向量。

APCNNs

包括PCNNs模块和语句级注意力模块。
PCNNs模块以语句的词向量和实体在语句中的相对位置向量的拼接作为输入,利用多个卷积核对向量矩阵进行卷积,利用分段最大池化(piecewise-max-pooling)对两个实体分割成的三个部分分别进行最大池化,得到一个向量,最后将经过tanh函数计算得到的结果作为语句的特征向量。

12db1684f3de1d26abd90592c17f44d3.png

语句级注意力模块将两个实体的差向量作为关系的向量,计算PCNNs生成的语句向量和关系向量之间的相关度,并进一步计算注意力的权重,

503ed42161337fe44143d766fd8a6747.png

其中

表示向量
的拼接,
是权重参数矩阵,
是偏移参数向量,
为实例的权重。

根据包中各个语句的向量及对应的注意力权重计算包的向量表示,

552affcbfc86cf5721ee4fdc5d9341f1.png

其中

为语句的向量。

最后通过softmax函数计算各个关系的概率。

cd6f2c7c771d9e23ae1d04bfc5e18b21.png

实体描述

从Freebase和Wikipedia页面抽取实体的描述信息,通过一个单卷积-池化层的CNN抽取实体描述的特征向量,定义实体向量与描述向量之间的偏差函数,

901845e198f723a253deeeccf2a83d5a.png

其中

为实体向量,
为描述向量,并使该偏差函数尽可能小。

训练目标

在三种设置下训练模型。
1)APCNNs,其目标函数采用交叉熵形式:

dbf8469de4ebdcc737f62dcf83bae589.png

其中

为包总数,
为包,
为包
对应的关系标签,
为参数。

2)APCNNs+D,其目标函数如下:

85cfff32c0eb04bf5ea04574894b96f0.png

3)PCNNs+MIL+D,将

作为PCNNs+MIL目标函数的约束。

实验

采用NYT数据集,分别进行held-out评估和人工评估。

held-out评估

1)总体上,APCNNs+D > PCNNs+MIL+D > APCNNs > baseline方法;
2)APCNNs > PCNNs+MIL,说明语句级注意力模型可在关系抽取中选择更多有效语句实例;
3)PCNNs+MIL+D > PCNNs+MIL,说明实体描述可提供背景知识以改进关系预测的准确性。

fe9c2737e6104e4e19a223842b6afa28.png

人工评估

1)APCNNs > PCNNs+MIL,说明语句级注意力模型可在关系抽取中选择更多有效语句实例;
2)PCNNs+MIL+D>PCNNs+MIL,说明实体描述可提供背景知识以改进关系预测的准确率;
3)APCNNs+D具有最高准确率。

dd0ab015724f674aa4ae193f37b3129b.png

权重

分析

表中共有5个实例,其中第4个无效,APCNNs和APCNNs+D给出较低权重,其余4个有效,APCNNs和APCNNs+D给出较高权重,说明语句级注意力可选择更多有效语句实例。另外APCNNs+D与APCNNs相比,对于无效实例可给出更低权重,对于有效实例可给出更高权重(除了第3个实例),说明实体描述可提高注意模块的性能。

40ba8749576c5dec837272dbc76c6b4c.png

结论

本论文的实体描述部分通过引入额外信息改进关系抽取的能力,值得借鉴。

d17ba79c30af78200c70b2e9509447ac.png

扫码识别关注,获取更多论文解读

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值