论文总结 | Improving Relation Extraction by Pre-trained Language Representations

原文链接:https://openreview.net/pdf?id=BJgrxbqp67

本文工作:

  • 使用基于Transformer的关系抽取模型(TRE),依赖于深层语言表征(deep language representation)而非语法特征。
  • 首次证明预训练语言表征在关系抽取任务中的重要性。
  • 通过ablation studies证明训练语言表征避免过拟合且具有较好的泛化性能;证明与基线方法相比样本效率有显著提高。
  • 源码 https://github.com/DFKI-NLP/TRE

1.介绍

  • 关系抽取应用:信息抽取、知识图谱、问答
  • 基于语法特征的关系抽取:基于前缀核形态学特征、POS句法特征、命名实体标记即WordNet上义词、基于图卷积的词法依赖特征。
  • 深层语言表征是一种有效的非监督的预训练形式,包含上下文特征,能够捕获语言学特征,微调的预训练在下游任务中有非常出色的表现。
  • Transformer的自注意力结构能够捕获长距离依赖。

2.TRE

大体上基于https://blog.csdn.net/qq_27717921/article/details/99670843方法,本文模型框架如图1.
在这里插入图片描述

3.实验设置

3.1数据集

在这里插入图片描述

  • TACRED&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值