LLaMA-MoE:基于参数复用的混合专家模型构建方法探索

90ec6cf4077365938476558bf11a3a3a.png

自Mixtral以来,大家对混合专家模型(Mixture-of-Experts,MoE)的关注越来越高。然而从零训练MoE模型的成本极大,需要耗费海量的计算资源。为此,我们探索了一种基于参数复用的MoE快速构建方法。

该方法首先将LLaMA2模型进行“大化小式”的专家划分,再通过继续预训练恢复模型的语言能力。在此基础上,我们尝试了各类专家构建方案和继续预训练策略,并得到了一系列的小型化LLaMA-MoE模型

实验结果表明,LLaMA-MoE对比相似激活量的稠密模型具有一定的性能优势,为后续基于MoE的研究提供了良好的轻量化基座。相关模型权重、专家构建和预训练代码均已开源[1],欢迎大家的试用~

主持人

40409cc724bf0d73b1ebbb1f119ab578.png华文越
罗格斯大学在读博士,新布朗斯维克分校
https://wenyueh.github.io

分享嘉宾

5385066a43a3808109d4d689dafa26bd.png
朱桐

苏州大学博士生,目前在上海人工智能实验室实习,主要研究方向为各类信息抽取任务和混合专家模型(MoE)。在EMNLP、COLING、IJCAI等会议中发表论文多篇,并在CCKS、百度千言等学术评测任务中多次取得奖项。
主页:https://spico197.github.io

内容

LLaMA-MoE:基于参数复用的混合专家模型构建方法探索

  1. 混合专家模型(MoE)背景介绍(15min)

  2. LLaMA-MoE的专家划分策略(10min)

  3. LLaMA-MoE的继续预训练方法(10min)

  4. 实验发现及总结(5min)

  5. QA讨论环节(20mins)

预约

时间

2024.1.6 10:30-11:30
本周六上午不见不散~

视频号和b站都可预约~

620050bf2a89235a8a740cb315954891.jpeg
b站

进群

为了方便讨论,建立了一个交流群,分享嘉宾也在里面,可以面对面探讨更多细节~a64a61444447e42cefa565d29585e669.png

参考资料

[1]

llama-moe: https://github.com/pjlab-sys4nlp/llama-moe


备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群

3916a47c96cf56e6d666aafc83830278.png

id:DLNLPer,记得备注呦

  • 6
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值