MoELoRA: Contrastive Learning Guided Mixture of Experts on Parameter-Efficient Fine-Tuning for LLMs

515 篇文章 3 订阅

已下架不支持订阅

55 篇文章 1 订阅
本文提出MoELoRA,一种改进参数高效微调(PEFT)的方法,用于增强大型语言模型(LLM)的适应性。MoELoRA以LoRA为基础,通过对比学习解决MoE中的随机路由问题,提高在数学和常识推理任务上的性能。实验证明,MoELoRA在相同参数量下优于LoRA,与175B GPT-3.5模型的表现相当。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《MoELoRA: Contrastive Learning Guided Mixture of Experts on
Parameter

MoELoRA:对比学习指导下的大型语言模型参数有效微调专家混合

摘要

为了增强大型语言模型(LLM)对下游任务的适应性,通常需要进行微调。尽管如此,更新数十亿个参数的过程需要大量的计算资源和训练时间,这对大规模模型在各种场景中的广泛应用构成了重大障碍。为了解决这个问题,参数有效微调(PEFT)已成为最近研究的一个突出范式。然而,当前采用有限全局参数集的PEFT方法(如LoRA,它将低秩近似矩阵添加到所有权重)在灵活组合下游任务中的不同计算模块方面面临挑战。在这项工作中,我们介绍了一种新的PEFT方法:MoELoRA。我们将LoRA视为专家混合(MoE),为了缓解在MoE中观察到的随机路由现象,我们建议利用对比学习来鼓励专家学习不同的特征。我们对11项数学推理和常识推理基准任务进行了实验。在相同数量的参数下,我们的方法显著优于LoRA。在数学推理中,MoELoRA的平均性能比LoRA高4.2%,在几个基准测试中与175B GPT-3.5相比表现出了竞争力。

1 引言

2 相关工作

3 提出的方法

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值