Mitigating Catastrophic Forgetting in Large Language Models with Self-Synthesized Rehearsal

大型语言模型(LLM)在持续学习时面临灾难性遗忘问题,传统方法依赖原始训练数据,但在实际应用中可能不可行。本文提出自合成复述(SSR)框架,利用LLM生成合成实例进行复述,以保留模型能力。实验证明,SSR在数据效率和性能上优于传统方法,同时保持了LLM的泛化能力,为LLM的持续学习提供了一种前景广阔的解决方案。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Mitigating Catastrophic Forgetting in Large Language Models with Self-Synthesized Rehearsal》的翻译。

用自综合复述减轻大型语言模型中的灾难性遗忘

摘要

大型语言模型(LLM)在持续学习过程中会遭受灾难性的遗忘。传统的基于复述的方法依赖于先前的训练数据来保留模型的能力,这在现实世界的应用中可能不可行。当基于公开发布的LLM检查点进行持续学习时,原始训练数据的可用性可能不存在。为了应对这一挑战,我们提出了一个称为自合成复述(SSR)的框架,该框架使用LLM生成用于复述的合成实例。具体来说,我们首先使用用于上下文学习的基本LLM来生成合成实例。随后,我们利用最新的LLM基于合成输入来细化实例输出,保留其获得的能力。最后,我们选择各种高质量的合成实例,以便在未来阶段进行排练。实验结果表明,与传统的基于复述的方法相比,SSR实现了优越或可比的性能,同时数据效率更高。此外,SSR有效地保留了LLM在一般领域的泛化能力。

1 引言

2 相关工作

3 基于复述的持续学习

4 我们的框架

5 实验

6 结论

在这项工作中,我们提出了自综合复述(SSR),这是一种用于缓解LLM中灾难性遗忘的持续学习框架,以在排复述过程中有效地保存知识,而不依赖于真实数据。通过广泛的实验,SSR证明了其数据效率和优于传统的基于复述的方法的性

  • 5
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值