大模型微调(finetune)方法

微调方法

1、lora

2、adapter

3、prefix-tuning

4、p-tuning

5、prompt-tuning

大模型微调后灾难性遗忘

可以从数据和模型两方面去考虑。

1、通用的指令数据(数据)

主流解决大模型微调后灾难行遗忘的方法是在微调过程中加入通用的指令数据。

2、自我蒸馏方法(数据)

主要是通过模型本身对任务数据进行生成引导,构建自我蒸馏数据集,改变任务数据的信息分布,减少与原始模型信息分布的差距。
Paper: https://arxiv.org/abs/2402.13669
Github: https://github.com/sail-sg/sdft

To address the problem, we introduce Self-Distillation Fine-Tuning (SDFT),a novel approach that bridges the distribution gap by guiding fine-tuning with a distilled dataset generated by the model itself to match its original distribution.
使用模型本身生成一些蒸馏数据集,用这些数据集在来微调模型,这样的话使得模型微调是所用的数据集和原来的数据集之间的分布尽可能的相似,从而尽可能的减少对以前知识的遗忘程度。(为啥会生成蒸馏数据集?生成数据集为啥是蒸馏数据集?不明白)

3、稀疏掩码(模型)

显著性和敏感性分析,更精确的定位到需要改变的参数,避免对整个模型参数的全面调整,从而减少了灾难性遗忘的发生。

数据集

数据集涉及单任务和多任务两种数据:
单任务:OpenFunctions、GSM8K和MagiCoder;
多任务:Alpaca、Dolly和LIMA;

参考

  • 11
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值