模型训练基础:GPT 中的 few-shot 小样本学习

本文介绍了NLP模型训练的演变,从纯监督学习到预训练+微调,再到GPT中的In-context学习。In-context学习通过少量示例指导模型完成任务,展示了在超大模型上的出色效果,但也存在对自然语言指令适应性和答案准确性的问题。
摘要由CSDN通过智能技术生成

目录

纯监督学习

预训练+微调(Finetune)

In-context learning

In-context learning 原理

In-context learning 的训练

zero-shot、one-shot、few-shot 小样本学习

prompt 学习

In-context learning 的效果评价

In-context learning 的局限性

总结


我们在之前的章节中介绍了 ChatGPT 的模型建模、模型结构、工作机制。除此之外,恰当的模型训练方式对其最终取得的效果也至关重要。

NLP 领域模型训练策略的改变总共经历了四个阶段,这也是 GPT 模型的训练方式进化史。

ChatGPT 的模型训练方式依然汲取了大规模语言模型 (LM) 预训练,以及小样本学习的思想。因此,本节我们先来重点梳理一下前三个阶段。

纯监督学习

这种方式是最早期的 NLP 模型训练方式,也是最传统的机器学习建模方式。这种模型训练方式主要还是针对特定的 NLP 任务来完成的,诸如文本分类、实体识别、文本摘要抽取、机器翻译等。

为了说明监督学习的数据组织模式,我们准备了 3 条标注样例如下:

  • 文本分类:

文本:jionlp 开发工具包确实挺好用的,非常感谢博主的分享~~~~

类别:正面

  • 实体识别
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能_SYBH

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值