GPT-2: Language Models are Unsupervised Multitask Learners

GPT 2

  • 论文
  • 代码
  • GPT-2的核心思想是,任何一个有监督NLP任务,都可以看成是语言模型的一个子集,只要预训练语言模型的容量足够大,理论上就能解决任何NLP任务。GPT-2的核心就是提升模型的容量和数据多样性,让语言模型能够达到解决任何任务的程度。

改进之处

  • 模型更大,采用48层的transformer的decoder共有15亿个参数;数据集更大,训练数据是一个称为WebText的数据集总共有40GB的文本内容。
  • GPT在大数据集上预训练然后再目标任务上微调会存在:需要重新训练模型;需要针对目标任务收集数据集。因此GPT-2在多个任务上进行预训练,然后迁移到下游任务时会设定zero-shot。
  • GPT2在子任务上不提供任何的样本,直接使用预训练模型去对子任务做预测。

方法

  • GPT中,在微调的时候引入了开始符,间隔符等特殊符号,这些是模型在预训练时候没有见到过的(微调的时候会进行学习)。现在 GPT-2 要做的是 zero-shot,模型在做下游任务时不能进行微调,因此不能引入这些特殊符号,否则模型就会很困惑,输入的形式应该更像自然语言。
  • 9
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值