混合专家模型(MoE)2022-2023顶会顶刊论文合集,包含算法、系统、应用3大类

混合专家模型(MoE)是一种深度学习技术,它通过将多个模型(这些模型被称为"专家")直接结合在一起,以加快模型训练的速度,获得更好的预测性能。这种模型设计策略在大模型中尤为重要,它可以解决大模型在训练时面临的一些问题。比如通过层之间的参数共享,MoE能够压缩模型大小;利用MoE的设计,可以扩大模型容量。

目前,基于Transformer扩展的大模型是当前各种大模型的主干,MoE则是扩展Transformer的一种关键技术。在大模型已至瓶颈的现在,MoE技术的发展为如何降低大模型训练难度和推理成本等难题提供了新的解题思路。

这次我整理了2022-2023近两年混合专家模型相关的顶会顶刊论文54篇,分了算法、系统、应用3个大类来和各位分享,帮助有需要的同学攻克大模型现存问题。

MoE算法

Patch-level Routing in Mixture-of-Experts is Provably Sample-efficient for Convolutional Neural Networks

混合专家系统中的补丁级路由对于卷积神经网络是样本高效的

「简述:」论文主要讨论了混合专家模型(MoE)在深度学习中的应用,特别是patch级路由在MoE(pMoE)中的效果。pMoE能够将输入分成多个补丁(或标记),并只将一部分补丁发送给每个专家,从而显著减少计算量。通过使用混合两层卷积神经网络(CNN)进行监督分类任务,作者证明了pMoE能够减少实现所需推广所需的训练样本数量,并优于其单个专家对应项。这是因为pMoE路由器可以过滤与标签无关的补丁,并将类似的类判别补丁路由到相同的专家,这有助于提高模型的泛化能力。

Robust Mixture-of-Expert Training for Convolutional Neural Networks

用于卷积神经网络的鲁棒混合专家训练

「简述:」论文提出了一种新方法AdvMoE,用于提高混合专家模型的对抗鲁棒性。作者发现传统的对抗训练对于混合专家模型不再有效,因为路由器和专家之间难以相互适应。因此,他们提出了一种新的交替对抗训练框架,将路由器和专家分开进行训练。实验结果表明,AdvMoE可以提高混合专家模型的对抗鲁棒性,并具有更高的效率。

Brainformers: Trading Simplicity for Efficiency

以简单换效率

「简述:」论文研究了Transformer设计的选择,并发现更复杂的块可以更有效。文章开发了一个名为Brainformer的复杂块,它由多种类型的层组成,并优于最先进的密集和稀疏Transformer。Brainformer具有更高的质量和效率,特别是在训练速度和步骤时间方面。在下游任务评估中,Brainformer也表现出更高的性能。最后,在fewshot评估中,Brainformer也优于通过NAS派生的模型。

Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity

用简单高效的稀疏性扩展到万亿参数模型

「简述:」论文提出了一种名为Switch Transformer的方法,用于解决混合专家(MoE)模型的复杂性、通信成本和训练不稳定性等问题。作者简化了MoE路由算法,并设计了更直观的改进模型,以降低通信和计算成本。同时,作者提出了新的训练技术,帮助控制不稳定性,并展示了大型稀疏模型可以使用更低精度(bfloat16)格式进行训练。在多语言环境下,作者使用T5-Base和T5-Large模型实现了更高的预训练速度,并在大规模数据集上预训练了高达万亿参数规模的模型。

Sparse Fusion Mixture-of-Experts are Domain Generalizable Learners

稀疏融合专家混合是域可泛化学习器

「简述:」论文提出了一种名为SF-MoE的新领域泛化方法,该方法基于混合专家(MoE)模型构建。作者发现,混合专家模型可以通过处理多个领域的预测特征来处理分布偏移,从而提高其泛化能力。为此,作者将稀疏性和融合机制引入到MoE框架中,以保持模型的稀疏性和预测性。大量实验表明,SF-MoE是一个可泛化的域学习者,并在五个大规模领域泛化数据集上优于最先进的方法,同时计算成本相同甚至更低。作者还从分布式表示的角度揭示了SF-MoE的内部机制(例如视觉属性)。

  1. On the Representation Collapse of Sparse Mixture of Experts

  2. Taming Sparsely Activated Transformer with Stochastic Experts

  3. Go Wider Instead of Deeper

  4. StableMoE: Stable Routing Strategy for Mixture of Experts

  5. Unified Scaling Laws for Routed Language Models

  6. Uni-Perceiver-MoE: Learning Sparse Generalist Models with Conditional MoEs

  7. A Theoretical View on Sparsely Activated Networks

  8. Designing Effective Sparse Expert Models

  9. Mixture-of-Experts with Expert Choice Routing

  10. Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models

  11. A Review of Sparse Expert Models in Deep Learning

  12. EvoMoE: An Evolutional Mixture-of-Experts Training Framework via Dense-To-Sparse Gate

  13. muNet: Evolving Pretrained Deep Neural Networks into Scalable Auto-tuning Multitask Systems

  14. Multimodal Contrastive Learning with LIMoE: the Language-Image Mixture of Experts

  15. ST-MoE: Designing Stable and Transferable Sparse Expert Models

  16. MoEC: Mixture of Expert Clusters

  17. No Language Left Behind: Scaling Human-Centered Machine Translation

  18. Patcher: Patch Transformers with Mixture of Experts for Precise Medical Image Segmentation

  19. Interpretable Mixture of Experts for Structured Data

  20. Task-Specific Expert Pruning for Sparse Mixture-of-Experts

  21. Gating Dropout: Communication-efficient Regularization for Sparsely Activated Transformers

  22. AdaMix: Mixture-of-Adapter for Parameter-efficient Tuning of Large Language Models

  23. Sparse Mixers: Combining MoE and Mixing to build a more efficient BERT

  24. One Model, Multiple Modalities: A Sparsely Activated Approach for Text, Sound, Image, Video and Code

  25. SkillNet-NLG: General-Purpose Natural Language Generation with a Sparsely Activated Approach

  26. Residual Mixture of Experts

  27. Sparsely Activated Mixture-of-Experts are Robust Multi-Task Learners

  28. MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation

  29. Mixture-of-experts VAEs can disregard variation in surjective multimodal data

  30. Efficient Language Modeling with Sparse all-MLP

  31. Using DeepSpeed and Megatron to Train Megatron-Turing NLG 530B, A Large-Scale Generative Language Model

  32. One Student Knows All Experts Know: From Sparse to Dense

MoE系统

DeepSpeed-MoE: Advancing Mixture-of-Experts Inference and Training to Power Next-Generation AI Scale

推进专家混合推理和训练,为下一代人工智能规模提供动力

「简述:」论文提出了DeepSpeed-MoE,这是一个端到端的MoE训练和推理解决方案,包括新的MoE架构设计和模型压缩技术,以及一个高度优化的推理系统。DeepSpeed-MoE可以为大规模MoE模型提供更快、更便宜的推理服务,与同等质量的密集模型相比,可加速4.5倍,成本降低9倍。

FasterMoE: modeling and optimizing training of large-scale dynamic pre-trained models

大规模动态预训练模型的建模和优化训练

「简述:」论文提出了一种性能模型来预测特定任务的操作延迟,并设计了动态阴影方法和智能细粒度调度方法来应对负载不平衡和提高执行效率。此外,作者还设计了一种避免拥塞的专家选择策略来降低网络拥塞。最终,作者将这些优化措施集成为一个名为FasterMoE的系统,实现了高效的分布式MoE模型训练。实验证明,FasterMoE在大规模模型上比现有系统具有更好的性能。

  1. HetuMoE: An Efficient Trillion-scale Mixture-of-Expert Distributed Training System

  2. Tutel: Adaptive Mixture-of-Experts at Scale

  3. Alpa: Automating Inter- and Intra-Operator Parallelism for Distributed Deep Learning

  4. BaGuaLu: Targeting Brain Scale Pretrained Models with over 37 Million Cores

  5. MegaBlocks: Efficient Sparse Training with Mixture-of-Experts

  6. SE-MoE: A Scalable and Efficient Mixture-of-Experts Distributed Training and Inference System

MoE应用

SCoMoE: Efficient Mixtures of Experts with Structured Communication

具有结构化通信的高效专家混合模型

「简述:」论文介绍了一种名为SCoMoE的Mixture-of-Experts(MoE)模型,该模型通过结构化全连接通信来减少通信成本。具体来说,SCoMoE使用快速的 intra-accelerator/node 通信通道来鼓励数据跨设备通信,并使用标记聚类方法在 MoE 层之前将来自不同设备的相关标记进行聚合。实验结果表明,SCoMoE在双语和多语言机器翻译任务上表现出色,比现有系统具有更好的性能和效率。

Switch-NeRF: Learning Scene Decomposition with Mixture of Experts for Large-scale Neural Radiance Fields

使用混合专家学习大规模神经辐射场的场景分解 简述:论文提出了一种新型端到端大规模神经辐射场Switch-NeRF,该模型使用基于专家混合的学习场景分解。作者设计了一个门控网络来将3D点分配给不同的NeRF子网络,并使用稀疏门控混合专家(MoE)的设计来优化门控网络和NeRF子网络以适应不同的场景分割。此外,作者还提出了一种可学习的方法来融合不同子网络的输出,以确保整个场景的一致性。实验结果表明,Switch-NeRF在重建大型场景方面具有高保真度和高效率,并在多个大规模数据集上取得了显著的性能提升。

  1. Spatial Mixture-of-Experts

  2. A Mixture-of-Expert Approach to RL-based Dialogue Management

  3. Pluralistic Image Completion with Probabilistic Mixture-of-Experts

  4. ST-ExpertNet: A Deep Expert Framework for Traffic Prediction

  5. Build a Robust QA System with Transformer-based Mixture of Experts

  6. Mixture of Experts for Biomedical Question Answering

  7. Learning Large-scale Universal User Representation with Sparse Mixture of Experts

关注下方《学姐带你玩AI》🚀🚀🚀

回复“混合专家”获取全部论文合集

码字不易,欢迎大家点赞评论收藏

  • 22
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
专家混合模型(Mixture-of-Experts, MoE)是一种机器学习模型,用于解决复杂问题。它由多个“专家”子模型组成,每个子模型负责解决输入空间的特定子领域。这些子模型可以是不同类型的模型,如决策树、神经网络等。 MoE模型的主要思想是将输入数据分配给不同的专家模型,然后将所有子模型的输出进行合并,以生成最终结果。这种分配可以根据输入数据的特征进行动态调整,以确保每个子模型都能有效地处理特定类型的数据。 MoE模型的关键是学习如何分配数据给各个子模型,并且如何将各个子模型的输出进行合并。通常,这个过程是通过训练模型来实现的,使用最大化似然估计或其他类似的最优化方法。 MoE模型的优势在于它能够有效地利用不同子模型的优势,提升整体模型的性能。每个子模型专注于解决特定的问题,因此可以更好地适应不同的数据分布和特征。此外,MoE模型还可以通过动态分配和合并数据,自适应地学习不同数据分布的变化。 尽管MoE模型具有很多优点,但也存在一些挑战。例如,确定合适的子模型数量和结构可能需要一些领域知识和经验。另外,MoE模型的训练过程相对复杂,可能需要更多的计算资源和时间。 总的来说,专家混合模型是一种强大的机器学习模型,它通过将多个专家模型组合起来,以提高整体模型的性能。它在实际应用中具有很大潜力,可以用于解决各种复杂问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值