大模型(LLMs)在少量样本上下文学习(ICL)中展现出了卓越的能力,即通过在推理过程中提供少量输入输出示例来学习,而无需更新权重。随着上下文窗口的扩展,我们现在可以探索包含数百甚至数千个示例的ICL——即多样本学习领域。本文将详细介绍多样本ICL的研究成果,包括其在不同任务中的性能提升,以及如何克服人类生成输出的限制。

多样本上下文学习(Many-Shot In-Context Learning, Many-Shot ICL)是一种先进的学习方法,它基于传统的少量样本ICL,通过在模型的上下文中提供更多的示例来增强学习效果。这种方法的核心优势在于它能够提供更丰富的信息,帮助模型更好地理解任务需求,从而减少对模型参数进行微调的必要性。这样做的结果是,模型不仅能够更准确地执行任务,还能够适应更广泛的应用场景。
在这项研究中,研究者们采用了Gemini 1.5 Pro模型作为实验的基础,这个模型具备了前所未有的上下文处理能力,能够处理长达100万token的文本。这是一个重要的进步,因为在此之前,大多数模型的上下文长度限制在几千token。这样的扩展使得研究者可以在模型的上下文中包含大量的示