什么是In-Context Learning(上下文学习)?

f44d4f8ab19572ba10fb2cd8a7ad11d3.gif

©作者 | 董冠霆

单位 | 北京邮电大学

研究方向 | 自然语言理解

b156def638ad14acce9c9ba1ecada23e.png

前言

随着大模型(GPT3,Instruction GPT,ChatGPT)的横空出世,如何更高效地提示大模型也成了学术界与工业界的关注,因此 In-context learning 的方法在 NLP 领域十分火热。

从时间线上看,它的演变历程大约是从 Prompt learning(2021年初) 到 Demonstration learning(2021年底)再到 In-cotnext learning(2022年初),但从方法原理上,他们却有很多相似之处。

本文对一篇有代表性的 in-context learning 论文:Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?进行阅读,之后我也会做其他 ICL 论文的阅读笔记。

Paper List for In-context Learning:

https://github.com/dongguanting/In-Context-Learning_PaperList

论文链接:

https://arxiv.org/abs/2202.12837

其他相关论文链接:

https://arxiv.org/pdf/2108.04106.pdf

In-Context Learning 综述:

https://arxiv.org/pdf/2301.00234.pdf

参考文章:

https://zhuanlan.zhihu.com/p/484999828

c83b66a67c28646f1cb4d378d62f837c.png

什么是In-Context Learning

在这篇综述论文给出了详细的定义:

https://arxiv.org/pdf/2301.00234.pdf

14594e763227e2b01169dbefd1cd0c61.png

In Context Learning(ICL)的关键思想是从类比中学习。上图给出了一个描述语言模型如何使用 ICL 进行决策的例子。首先,ICL 需要一些示例来形成一个演示上下文。这些示例通常是用自然语言模板编写的。然后 ICL 将查询的问题(即你需要预测标签的 input)和一个上下文演示(一些相关的 cases)连接在一起,形成带有提示的输入,并将其输入到语言模型中进行预测。

值得注意的是,与需要使用反向梯度更新模型参数的训练阶段的监督学习不同,ICL 不需要参数更新,并直接对预先训练好的语言模型进行预测(这是与 prompt,传统 demonstration learning 不同的地方,ICL 不需要在下游 P-tuning 或 Fine-tuning)。我们希望该模型学习隐藏在演示中的模式,并据此做出正确的预测。

1d5993d105913d19e0aba0fc3746283c.png

论文分析

Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?中我们已经发现 Demonstration,ICL 与大规模语言模型结合(LMs)在零样本条件下的许多任务上取得了很好的效果,但人们对它如何工作以及演示的哪些方面有助于最终任务的执行知之甚少。本文主要以实验为主,探究以上影响 ICL 的因素。

实验设置

作者采用 12 个模型进行了实验。我们包括 6 种语言模型(表 1),所有这些模型都是仅限解码器的 dense LM。LMs 的大小从 774M 到 175B 不等。

6596b1fd5ecea830be33e93584792a07.png

对于每个模型,作者采用了两种应用方式,即 direct 和 channel:

e1e0674346013b63750cfc1df4e9a1c3.png

Direct:直接计算给定 input x 条件下,label y 的概率 P(y|x)。

Channel:与上面恰好相反,给定 y 的条件下计算 x 的概率 P(x,y)∝P(x|y)。

作者在如下数据集上进行实验,包括情感分析,段落检测,自然语言推理,仇恨言语检测,问答,句子补全等任务。

58aa8c849bb47221bb7e2f5568776c20.png

820bacbe6512df7b58da64af5ad3187c.png

结论1:ICL中Ground Truth信息无关紧要

No Demos:LMs 直接进行零样本预测,无提示

Demos w gold:依赖于 K 个标注的 examples 进行提示,进行预测

Demos w random labels:抽样 K 个 examples 提示,但样本 labels 在标签集中随机采样,而非 groundtruth。

144997e01a88a5792ab97512b01105b0.png

我们发现,用随机标签替换黄金标签只会轻微影响性能。这一趋势在几乎所有的模型上都是一致的:模型看到的性能下降在 0-5% 的绝对范围内。在多选择任务中(平均 1.7%)替换标签的影响小于在分类任务中(2.6% 的绝对标签)。

这一结果表明,地面真实值输入标签对并不是实现性能提高的必要条件。这是违反直觉的,因为正确的配对训练数据在典型的监督训练中是至关重要的——它通知模型执行下游任务所需的期望输入-标签对应。尽管如此,这些模型在下游任务上确实取得了非常重要的性能。

作者在以下 3 个维度上进一步做了消融实验:正确演示占总的百分比(下图1)与演示样本数量 K(下图2),演示的模板样式(下图3)。

9ace6d798487534c641cd375e01a71bf.png

cfd83fdd9154059934c60adb6d992d41.png

1295816cf6387e52b7a0a51eb8a3b7fa.png

可以得到相似的结论,在演示正确与否影响并不大。

714ffc5cc8fc701a759fb07f3215bd71.png

结论2:ICL的性能收益主要来自独立规范的输入空间和标签空间,以及正确一致的演示格式

作者分别从以下四个维度探究 In-Context Learning 效果增益的影响。

1. The input-label mapping:即每个输入 xi 是否与正确的标签 yi 配对

2. The distribution of the input text:即 x1...xk 的分布是否一致

3. The label space:y1...yk 所覆盖的标签空间

4. The format:使用输入标签配对作为格式。

242a2cd7dd09146bb0d5febd56c4543f.png

输入文本分布实验:

下图中,青绿色的柱子为用(从外部语料中)随机采样的句子替换输入句子的设置。可以看到,模型表现明显下降。因此,in-context learning 中,演示中的分布内输入极大地有助于提高性能。这可能是因为已 IND(in-distribution)文本的条件使任务更接近于语言建模,因为 LM 在此期间总是以 IND 文本为条件进行推理标签。

526dfa0bad5ee463ed4c434f2cf79496.png

标签空间实验:

下图中,青绿色的柱子为用随机英语词汇替代展示样本中的标签。可以看到,模型表现明显下降。因此,in-context learning 中,标签空间的一致性显著有助于提高性能。

d6586ffa5ea999d756c97ae3e26c6469.png

演示格式实验:

下图中,分别用 labels only(深紫)和 no labels(深绿)来探索演示模式的差异对模型表现的影响。可以看到,模型相对于上面两图的 OOD setting 而言,都有了进一步的下降。这可以表明 ICL 中保持输入-标签对的格式是关键的。

d9a18f6f31147b13b70a97f8236fe1e5.png

9bfcbdf8f2b363d4ade5db2914f81fa2.png

有意思的讨论

作者还进行了个有意思的讨论,即模型是否在 Test 阶段学习到了知识?

作者认为如果我们对学习进行严格的定义,即学习在训练数据中给出的输入标签对,那么 lm 在测试时不学习新的任务。然而,学习一项新任务可以更广泛地解释:它可能包括适应特定的输入和标签分布以及演示的格式,并最终更准确地做出预测。有了这个学习的定义,该模型确实可以从演示中学习任务。我们的实验表明,该模型确实利用了演示的各个方面,并实现了性能的提高。


c6cf30ede9a93fe85ada2b97d5813d1d.png

总结

本文从多个角度探究了演示是如何让 In-context learning 在不同的任务中产生性能增益的,而且随着 fine-tune 阶段的黑盒化,很多文章也提出 fine-tune 阶段可能让模型丧失了泛化性,那么 ICL 这种不 fine tune 的方法既节省时间与资源开销,且能提升效果,应该会在大模型林立的时代被人关注,并迅速火起来。

更多阅读

344dd5c7e1e1a4dcc23645940ae20cd7.png

2ad19c1be667ff01396aef23c83add71.png

4da52a12d842b022674e737bfaae91f1.png

0bdf1723fa630abd3f0872316212d462.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

05cc0262ef9410f8e0f7c65d74d8afc2.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

8e68631e19ec0d8439f3fe98c0365613.jpeg

  • 9
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值