LLM微调过程中灾难性遗忘问题解决方法

灾难性遗忘是LLM微调过程中最常见的问题,下面是一些解决办法:

  1. 将重要的权重冻结:像Lora就是采用的这种方案,只学习部分网络权重。但这里Lora的配置其实是要注意一下,如果你是用Lora做预训练,lora训练模块可以配上 q_proj,v_proj,k_proj,o_proj 如果是微调则只需要训练q_proj,v_proj。lora_rank的设置也有讲究,初始设lora_ran为8,训练存在遗忘时,可以将 lora_rank改为64(原因是与原模型数据领域相差较大的话,需要更大的秩,原论文有说明)
  2. 复习:跟人一样,在预训练或微调时,回看之前训练的数据。还可以专门把特征图存起来,量化以后放在一个类似于记忆库的地方,之后在新任务上训练的时候从这个记忆库里重构出记忆和新数据一起训练。感兴趣可以看这篇论文:REMIND Your Neural Network to Prevent
    Catastrophic Forgetting
  3. MoE:稀疏门控制的专家混合层,最近爆出GPT4是由 8个220B的模型组合。但个人体验,阉割版的GPT4变得智障了很多。
  4. 数据蒸馏:损失函数由teacher-student的KL loss和groud truth label构成:https://github.com/beyondguo/LLM-Tuning/discussions/24

参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值