Janus: Data-Centric MoE 通讯成本分析(2)

文章链接:Janus: A Unified Distributed Training Framework for Sparse Mixture-of-Experts Models

发表会议: ACM SIGCOMM 2023 (计算机网络顶会)

系统学习:Janus: 逆向思维,以数据为中心的MoE训练范式(1)

前言

在之前的blog中,我们学习了Janus的理论基础和模型搭建。基于专家的规模小于数据规模的假设,作者得到了Data-Centric的思想灵感,并验证了算法的有效性。
通过Data-Centric这一范式思路和巧妙的读取测略,Janus极大的减少了算法的通讯成本。这篇blog将从数学的角度定量解读Janus是如何降低通讯开销的。

通讯成本分析

1. Expert Parallelism and all-to-all

在这里插入图片描述
一个MoE模型的尺寸可能会大到超过单个gpu的能力。为了在gpu上训练一个大规模的MoE模型,专家并行(Expert Parallelism,EP)被提出并得到广泛应用。

右图显示了EP的概念。专家并行是将专家层划分为几个部分,并分配给GPU。每个GPU中都有专家层的专家,不同的GPU中有不同的专家。对于MoE模型的其他部分(如attention layer和Gate),每个GPU持有一个独立的副本

在这里插入图片描述
目前EP的实现默认是以专家为中心的。图(a)说明了以专家为中心的训练过程。当MoE块处理token序列时,gate需要为每个token分配专家,而token由gate分发到承载分配专家的gpu。

这种token到gpu的分发是由一个all-to-all通信原语完成的,因为由gpu生成的令牌的目标gpu很可能包括所有的gpu。token被指定的专家处理后,需要将结果发送回其原始的gpu,这需要再次进行all-to-all通信。由于MoE模型通常具有多个MoE块,因此MoE模型的训练可能涉及到多次的all-to-all通信操作。


2. Traffic Comparison between D-C. and E-C.

模型
参数
MoE-BertMoE-GPTMoE-Transformer-xl
Batch size B B B25625664
Seq-lenth S S S12864512
Top-K in Gate242
Expert dim. H H H768768256
MoE Block4112
Total block121212
Expert num16    3216    3216    32
GPU num16    3216    3216    32
Model Size(B)0.42   0.730.23   0.310.11   0.21
E-C. Traffic(GB)6   91.5   2.256   9
D-C. Traffic(GB)0.56   1.690.14   0.420.19   0.56

上表展示了以专家为中心的范式(E-C.)和数据中心范式(D-C.)的模型配置和通讯成本大小。
可以看到,在相同的模型配置下,D-C.的通讯量明显低于E-C.


3. Communication Efficiency Analysis

由于整个系统的通信瓶颈在于节点间通信而非节点内通信,故将节点间通信量作为衡量训练系统潜在通信效率的指标。

记号含义
n n n设备数量
m m m每个设备的工作进程
E E E每个工作进程的专家数量
H H H向专家输入的token的维度
T T T工作进程生成的token数
k k k门参数 top-K
B B B每个工作进程的训练任务的批量大小
S S S训练任务的序列长度

A. Forward Phase

在MoE模型中,每个Expert通常是一个由两个线性层组成的前馈网络(FFN)。对于一个FFN模块,第一层包括一个形状为 H ∗ 4 H H*4H H4H 的矩阵,第二层包括一个形状为 4 H ∗ H 4H*H 4HH 的矩阵。因此,一个FFN模块的大小为 8 H 2 8H^{2} 8H2

每个工作进程有 E E E 个专家,每台设备有 m m m 个专家。由于每台设备都需要将这些专家广播给其他 n − 1 n−1 n1 台设备,因此在MoE块的训练过程中,D-C.的通讯量为:
C o m m D C = 8 H 2 E m ( n − 1 ) Comm_{DC}=8H^{2}Em(n-1) CommDC=8H2Em(n1)

E-C.的训练系统中,专家之间的token分配通常是不平衡的。完成通信所需的时间取决于发送/接收数据量最大的设备。显然,非平衡分布下的通信时间几乎总是比平衡分布下的通信时间长

现在计算E-C.的训练系统中要传输的token大小,即节点间通信量。每个工作进程生成 T T T 个token,然后一个 m-worker (GPU)设备可以生成 m T mT mT 个token。

在token均衡分配的假设下,token被发送到其他设备的百分比为 n − 1 n \frac{n-1}{n} nn1。在E-C.中,MoE型块需要在前向计算阶段执行all-to-all通信操作。因此,MoE块中以E-C.的通信量为:
C o m m E C = 2 m H T ⋅ n − 1 n Comm_{EC}=2mHT\cdot \frac{n-1}{n} CommEC=2mHTnn1


B. Backward Phase

对于后向阶段,在E-C.中,系统需要传输生成梯度所需的所有中间结果,并且这个量等于它在前向阶段中发送的token的量

D-C.中,系统可以重用在前向阶段提取和缓存的专家。在专家模块计算出梯度后,梯度应该被发送回原始工作进程。梯度的大小与拉取的专家模型相同,通信方向相反。

此外,同一个专家在一台设备上的多个梯度被减少和合并,然后被送回。因此,在D-C.中,后向阶段中的通讯量也等于前向阶段中的通讯量


C. Ratio measure

在分析了两种模式的通讯量后,文章定义了一个度量 R R R 来评估 D-C. 的理论增益,它是两种范式下节点间通信量的比率:
R = C o m m E C C o m m D C = T 4 n H E R=\frac{Comm_{EC}}{Comm_{DC}}=\frac{T}{4nHE} R=CommDCCommEC=4nHET

给定训练参数可以计算出token的数量 T T T,包括批大小 B B B、序列长度 S S S 以及与相关的Gate参数 top-K: k k k T = B S k T=BSk T=BSk 于是有:
R = C o m m E C C o m m D C = B S k 4 n H E R=\frac{Comm_{EC}}{Comm_{DC}}=\frac{BSk}{4nHE} R=CommDCCommEC=4nHEBSk

R > 1 R>1 R>1 表明D-C.效率优于E-C.效率。


Be Janus

Janus是一个以专家为中心的范式和以数据为中心的范式的统一框架。Janus在混合专家模型模型的训练开始前进行评估。

对于其中 R ≤ 1 R\le 1 R1 的MoE块,Janus默认使用专家中心范式。
对于其中 R ≥ 1 R\ge 1 R1 的MoE块,Janus将使用以数据为中心的范式。

  • 8
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

恭仔さん

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值