NLP预训练模型-GPT-3

一、背景知识

In-context learning (上下文学习) 一种新的范式,在不进行参数更新的情况下,只在输入中加入示例就能让模型进行学习。给定几个任务示例和一个任务说明,模型通过理解任务本身对任务中的实例进行补全。

Few-shot: 允许输入任务说明和几个示例,要求模型预测给出的实例的正确输出

任务说明:把英语翻译成中文。例子1:one->一。例子2:two->二。问题:three->

One-shot :除了任务说明外,只给出一个示例

Zero-shot :除了任务说明外,不额外给出示例

Meta-learning :自主学习

二、Motivation

2.1 背景

Pre-train+fine-tune的范式有两个缺陷,一是对下游任务的fine-tune依赖大量的有标注数据,而获取这些数据的成本很高;二是对下游任务的fine-tune会导致对领域数据分布的过度拟合,降低大模型的泛化能力。并且,人类不需要大量的监督数据集就可以学习大多数语言任务。因此GPT认为fine

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值