论文浅尝 | 大语言模型在in-context learning中的不同表现

9e2fe3a9ad7e9ec0bfb3c883d074cdba.png

笔记整理:毕祯,浙江大学博士,研究方向为知识图谱、自然语言处理

链接:https://arxiv.org/pdf/2303.03846.pd

本文是谷歌等机构最新发表的论文,旨在研究大模型上下文学习的能力。这篇论文研究了语言模型中的上下文学习是如何受到语义先验和输入-标签映射的影响。作者研究了两种不同的设置,并在各种模型(包括GPT-3, InstructGPT,Codex,PaLM和Flan-PaLM)上进行了实验。实验发现,对于小型语言模型来说,语义先验对于ICL的影响更大,而对于大型语言模型来说,即使有更强的语义先验,也可以通过反转标签或学习无关联标签的方式进行学习任务。此外,作者还发现通过指令学习可以增强语义先验和输入-标签映射的能力。

总体介绍

7d4648461160870ea6114948d1ad4b88.png

图1

本文展示了三种不同的上下文学习方式:常规上下文学习、反转标签的上下文学习以及不相关标

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值