论文题目:Enriching Pre-trained Language Model with Entity Information for Relation Classification
作者:Shanchan Wu,Yifan He , Alibaba Group (U.S.) Inc., Sunnyvale, CA
原文链接:https://arxiv.org/pdf/1905.08284.pdf
github:https://github.com/monologg/R-BERT
摘要译文
关系分类是提取实体之间关系的重要NLP任务。 关系分类的最新方法主要基于卷积或递归神经网络。 最近,经过预训练的BERT模型在许多NLP分类/序列标签任务中都取得了非常成功的结果。 关系分类与这些任务不同,因为它依赖于句子和两个目标实体的信息。 在本文中,我们提出了一个模型,该模型既利用预训练的BERT语言模型,又结合来自目标实体的信息来解决关系分类任务。我们定位目标实体,并通过预训练的结构和合并两个实体的对应编码来传递信息。相对于对于SemEval-2010 任务 8中关系数据集的最新方法,我们取得了显着改进。
任务描述
给定一个文本序列(通常是一个句子)和一对名词“e1” 和“e2”,