A Survey on In-context Learning 2024年5月6日

论文链接: https://arxiv.org/pdf/2301.00234v3


摘要

随着大型语言模型(LLMs)能力的增强,上下文学习(ICL)已成为自然语言处理(NLP)领域的新范式,其中LLMs仅基于上下文中增加的一些示例进行预测。探索ICL以评估和推断LLMs的能力已成为一种新趋势。在本文中,我们旨在调查和总结ICL的进展和挑战。我们首先提出了ICL的正式定义,并阐明了它与相关研究的相关性。然后,我们组织并讨论了先进技术,包括训练策略、示例设计策略以及相关分析。最后,我们讨论了ICL的挑战,并为进一步研究提供了潜在方向。我们希望我们的工作能鼓励更多关于揭示ICL工作原理和改进ICL的研究。

一、ICL的定义和公式化

示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。

二、模型预热

在这里插入图片描述

三、示例设计

在这里插入图片描述

四、ICL影响因素

在这里插入图片描述

五、ICL为什么有效

在这里插入图片描述

六、评估方法、可用资源

在这里插入图片描述

七、其它领域应用

在这里插入图片描述

  • 7
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值