Enriching Pre-trained Language Model with Entity Information for Relation Classification 论文阅读笔记

Enriching Pre-trained Language Model with Entity Information for Relation Classification 论文阅读笔记
(R-BERT关系抽取)

一、核心思想:

关系分类不仅依赖于整个句子的信息,还依赖于具体目标实体的信息。

二、方法:

在这里插入图片描述
1.在实体1左右两侧添加$标记,在实体2左右两侧添加#标记。在句子开头添加[CLS]标记。

2.将句子输入到BERT模块中,得到一系列隐状态H(设维度为d)。设Hi到Hj是实体1的隐状态,Hk到Hm是实体2的隐状态,依次运用平均运算、tanh激活、全连接层处理得到两个实体的最终表示H1和H2

在这里插入图片描述
这里设置W1=W2,b1=b2

3.设H0是[CLS]标记的隐状态,同样对其运用tanh激活、全连接层处理得到句子的最终表示H0

在这里插入图片描述
这里,作者将W0、W1、W2的维度均设置为d×d。

4.将三个最终表示H0、H1、H2连接,对其运用全连接层处理、softmax分类:

在这里插入图片描述
W3的维度为L×3d(L是关系种类数)。

三、实验设置:

使用交叉熵损失函数,且在每次全连接层处理前使用dropout操作。

使用SemEval-2010Task8官方评分脚本评测模型。

BERT模型使用uncased basic model。

在这里插入图片描述
四、消融实验:

只使用句子信息,不使用实体信息,也不给实体定位:F1值81.09。

使用句子信息,使用实体信息,但不给实体定位(即计算H1和H2,但不使用$和#标记):F1值87.98。

使用句子信息,不使用实体信息,但给实体定位(不计算H1和H2,使用$和#标记):F1值87.99。

使用句子信息,使用实体信息,且给实体定位(即计算H1和H2,使用$和#标记,即本文的方法R-BERT):F1值89.25。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值