[论文阅读笔记66]R-BERT

1. 基本信息

题目论文作者与单位来源年份
Enriching Pre-trained Language Model with Entity Information for Relation ClassificationShanchan Wu Yifan He Alibaba Group (U.S.) IncCIKM2019

R-BERT
128 Citations, 32 References

论文链接:https://arxiv.org/pdf/1905.08284.pdf

论文代码:https://github.com/monologg/R-BERT [非官方]

2. 要点

研究主题问题背景核心方法流程亮点数据集结论论文类型关键字
关系抽取基于bert出关系抽取;序列重组合,然后分断,最后再组合。模型把实体级信息加入到预训练中来完成任务。
在第一个实体周围加入‘$’,在第二个实体周围加入‘#’,用这两个符号标识实体位置;
使用了’[CLS]'中的句子信息;
SemEval-2010 Task 8方法简单具有效,在工程的使用是不错的。
取得SemEval-2010 task 8上的state-of-the-art.
bert, Relation classifification

3. 模型(核心内容)

3.1 模型

image-20220317173808905

  1. 对于序列s, 在句子前面加入’[CLS]’, 在第一个实体加入’$’, 在第二个实体加入’#’.
  2. 对于两实体进行平均计算(H1,H2):

image-20220317173917044

  1. 对于‘[CLS]’,加入了一个激活与全连接操作:

image-20220317173951729

W0,W1,W2有相同的维度(d*d,d为Bert隐含层状态大小).

  1. 把三类信息concat起来,再输入一个全连接网络:

image-20220317174018260

W3的大小为L*3d. 其中L表示关系类型数。p为概率输出。

  1. 采用交叉熵作为损失函数,在每个全连接层前加入dropout.

4. 实验与分析

4.1 数据集
  1. SemEval-2010 Task 8;

  2. 包括10类:Cause-Effect, *Component-Whole, Content-Container, Entity Destination, Entity-Origin, Instrument-Agency, Member-Collection,

    Message-Topic ,Product Producer, Other

  3. 10,717 sentences;

  4. 关系有方向性的;

4.2 训练参数

image-20220321111921891

4.2 结果

对比实验:

image-20220317174140909

消融分析:

BERT-NO-SEP-NO-ENT: 不加特殊分隔符(“$”,"#"),也不加入‘[CLS]’信息; F1==- 8.16==;

BERT-NO-SEP: 不加特殊分隔符(“$”,"#");

BERT-NO-ENT: 不加入‘[CLS]’信息;

image-20220317174212724

5. 代码

6. 总结

6.1 优

​ 简单有效的方法。

6.4 不足

​ 其它种类的消融是否可以考虑一下。

7. 知识整理(知识点,要读的文献,摘取原文)

​ 无

8. 参考文献

【1】bert关系抽取之R-BERT:Enriching Pre-trained Language Model with Entity Information,https://blog.csdn.net/xiaowopiaoling/article/details/105679350

made by happyprince

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值