Improving Language Understanding by Generative Pre-Training

68 篇文章 2 订阅
60 篇文章 1 订阅
本文提出一种半监督方法,通过无监督预训练生成语言模型,然后在多个任务上进行有监督微调,显著提高了自然语言理解的效果。研究显示,预训练阶段使用Transformer结构能捕获更广泛的语言结构,而在微调阶段采用任务感知输入转换,仅需少量模型调整即可实现有效迁移学习。这种方法在多项任务上超越了专门设计的判别式模型。
摘要由CSDN通过智能技术生成

Abstract

由于标注数据的缺乏,直接训练判别式模型效果不是很理想。
本文展示了先在大规模未标注语料上预训练生成式语言模型然后在每个判别式任务上进行fine-tuning可以获得较大的效果提升。
相比于以前的方法,本文在fine-tuning阶段利用了task-aware input transformations, 实现了有效的迁移学习并且只需要很少的模型结构调整。

Introduction

从原始文本中有效学习的能力是缓解NLP依赖于有监督学习的关键。很多领域由于缺乏足够的标注数据,而限制了NLP在该领域的应用。即便是在有一定标注语料的领域,使用预训练模型依然可以获得显著的性能提升。预训练词向量(word2vec, GloVe等)在多种NLP任务中的广泛应用足以说明这一点。

利用无标注文本中word-level之外的信息有一定的挑战性:

  • 尚不清楚什么类型的优化目标对于面向迁移学习的文本表示是最有效的
  • 尚不明确以何种方式将学习到的表示迁移到目标任务是最有效地

本文提出了一种用于语言理解任务的半监督方法,包括无监督的预训练和有监督的fine-tuning. 目标是学到一种通用的表示,只需微小调整就能迁移到各种不同的任务上。目标任务不需要和预训练任务使用同一领域的语料。具体来说,在预训练阶段,使用语言模型作为训练目标&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值