本文是LLM系列文章,针对《Role Prompting Guided Domain Adaptation with General Capability
Preserve for Large Language Models》的翻译。
摘要
对用于专业应用程序的大型语言模型(LLM)的兴趣日益增长,这揭示了一个重大挑战:当针对特定领域进行定制时,LLM往往会经历灾难性的遗忘,损害其一般功能,并导致次优的用户体验。此外,由于域之间的混淆,同时为多个域创建通用模型往往会导致整体性能下降。针对这些问题,我们提出了RolE提示引导多领域适应(REGA)策略。这种新方法通过三个关键组成部分有效地管理多域LLM自适应:1)自蒸馏构建和重放一般域样本,以缓解灾难性遗忘。2) 角色提示为一般域分配一个中心提示,为每个特定域分配一一个唯一的角色提示,以最大限度地减少训练过程中域间的混乱。3) 角色集成重用并集成一小部分特定于领域的数据到通用领域数据,这些数据在中央提示的指导下进行训练。中央提示用于简化推理过程,消除了为不同域切换提示的必要性。实证结果表明,REGA有效地缓解了灾难性遗忘和领域间混乱。与标准微调模型相比,这提高了特定领域的性能,同时仍保留了强大的通用功能。