读完论文的总结与思考:LM-Cocktail: Resilient Tuning of Language Models via Model Merging

0. 相关概念

  • 灾难性遗忘(catastrophic forgetting):这是一个在机器学习领域,特别是在神经网络中常见的现象。当模型在训练过程中学习到新的任务或数据时,它可能会忘记之前已经学习到的任务或数据,导致在之前任务上的性能显著下降。这种现象就像是人类在学习新知识时可能会忘记旧知识一样。
  • 黑盒优化(black-box optimization):一种优化方法,其中优化算法不依赖于问题的具体内部结构或性质,而是仅依赖于输入和输出之间的关系。在机器学习和人工智能领域,黑盒优化常用于那些内部结构复杂或不完全清楚,但可以通过输入输出进行测试和评估的系统。在这个上下文中,黑盒优化被用来找到合并不同任务时每个任务的最优权重,以提高模型在MMLU基准测试上的整体性能。

1. LM-Cocktail

  • 目标:LM-Cocktail 的提出是为了解决语言模型在经过fine-tune操作后的灾难性遗忘问题。

  • 特点:能够在模型合并的基础上,不断地适应已经经过精细微调(well-fine-tuned)的语言模型。

  • 三种形态:

    1. 直接将微调模型与预训练的基础模型合并,以提高微调模型的通用能力
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

comli_cn

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值