Language Models are unsupervised multitask learners

68 篇文章 2 订阅
60 篇文章 1 订阅

Abstract

自然语言处理任务通常在任务特定的数据集上进行有监督学习。
本文说明了在一个包含数百万网页的新数据集(WebText)上训练的语言模型能够在没有任何显式监督的情况下学会处理各种自然语言任务
并在 CoQA 数据集上得到 F1 为 55 的好结果,与 4 个 baseline 系统相比,可以匹敌或超过其中的 3 个,其无需使用 127,000+ 的训练样本。
zero-shot 任务迁移成功的关键是语言模型的容量,通过增大模型容量,可以在多个任务上以 log-linear 的方式提高性能。
本文提出的最大的模型 GPT-2,是一个包含 1.5B 参数的 Transformer, 在 zero-shot 情况下,在 8 项语言模型数据集上取得了 7 项 SOTA,并且对 WebText 数据集依然是 underfit 的。

Introduction

目前的机器学习系统都是 narrow experts 而不是 competent generalists. 我们的目标是接近更通用的系统,最终无需为每个任务单独标注数据集就能够处理各种任务。

导致机器学习系统无法跨任务泛化的主要原因是单任务和单领域数据集训练。在当前的框架下,在多种任务和数据集上训练和评估也许是一条路子。最近各种 benchmark 如 GLUE 和 decNLP 的提出都是一个好的开始。

Multitask learning 是提升模型通用性的一种很有希望的框架。然而多任务学习尚不成熟,最近的研究在 17 个 (dataset, objective)对中使用 10 个数据集和目标对用于训练。从元学习的角度来看,一个数据集和目标对只不过是数据集和目标分布中的一

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值