大模型论文—大型语言模型持续学习综述

本文探讨了在静态数据集训练的大型语言模型如何应对动态数据分布和用户偏好的挑战。文章详细介绍了持续学习在LLMs中的四个关键部分:概述、垂直/水平连续性、预训练阶段和评估方法,以及相关问题和数据源。
摘要由CSDN通过智能技术生成

最近在静态、预先收集的通用数据集上训练的大型语言模型 (LLM) 的成功引发了许多研究方向和应用。其中一个方向解决了将预训练的 LLM 集成到动态数据分布、任务结构和用户偏好中的重要挑战。预先训练的 LLM 在针对特定需求量身定制时,通常会在以前的知识领域中经历显着的性能下降——这种现象被称为“灾难性遗忘”。虽然在持续学习 (CL) 社区中进行了广泛的研究,但它在 LLM 领域提出了新的表现形式。在本次调查中,我们全面概述了CL背景下LLMs的当前研究进展。本调查分为四个主要部分:我们首先描述了持续学习 LLM 的概述,包括两个连续性方向:垂直连续性(或垂直持续学习),即从一般能力到特定能力的持续适应,以及水平连续性(或水平持续学习),即跨时间和领域的持续适应(第 3 节)。然后,我们总结了在现代 CL 背景下学习 LLM 的三个阶段:持续预训练 (CPT)、领域自适应预训练 (DAP) 和持续微调 (CFT)(第 4 节)。然后,我们概述了使用 LLM 进行持续学习的评估协议,以及当前可用的数据源(第 5 节)。最后,我们讨论了与LLM持续学习有关的有趣问题(第6节)。
在这里插入图片描述

在这里插入图片描述
想要论文资源的可以找我拿
在这里插入图片描述

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值