Context并行

最初是Sequence并行+Tensor并行;

但是,Tensor并行加多GPU parition数目后,每个GPU上的计算量减小,无法和通信overlap,变慢;

CP can better address the issues. With CP, each GPU only computes on a part of the sequence, which reduces both computation and communication by CP times. Therefore, there are no concerns about the overlapping between them. The activation memory footprint per GPU is also CP times smaller, hence no OOM issue any more.

Context并行的动图:

[并行训练]Context Parallelism的原理与代码浅析 - 知乎 (zhihu.com)

3个要点:

1. 使用了RingAttention;(Overlap: Q和当前K、V计算时,下一份K、V在通信过来的路上了)

2. 因为有casual mask,每个token只和前面token的K、V进行计算,不计算后面的;因此为了更好的load-balance,用了将sequqnce划分为2N份的技巧;

3. 复用了最新的OSS和cuDNN FlashAttention

1. RingAttention

即每张卡做1/N的sequence tokens,先计算好自己这些tokens的Q、K、V,然后每次用自己的Q,计算1/N的K和V,GPU之间达成环形来每次传输1/N的K和V;每个GPU和所有K、V计算完毕后,将N个结果向量加和起来,就得到了自己这1/N tokens的attention计算结果;

 2. casual mask引发的Load balance优化

N张卡参与CP,将sequence划分为2N份,GPU-0: 0+5, GPU-1:1+4, GPU-2: 2+3,这样每卡之间的计算量就均匀了;

Context并行,天然就是接上Sequence并行,一起用的;

TP+CP+SP:

[GPU0, GPU1]拿到sequence的前半部分tokens,

[GPU2, GPU3]拿到sequence的后半部分tokens;

GPU0和GPU1将模型做了Tensor并行划分;

GPU2和GPU3将模型做了Tensor并行划分;

Dropout、LN(LayerNorm),[GPU0, GPU1]只用Sequence并行;([GPU2, GPU3]同理)

FC1、GeLU、FC2,[GPU0, GPU1]只用Tensor并行;([GPU2, GPU3]同理)

计算attention那里,特殊,因为每个token的Q要和前面的所有tokens的K、V做计算,但是它卡上只有自己这1/N部分的K、V;因此,采用Context并行来解决,轮转通信K、V,每个GPU计算N次,加和得到结果;即,[GPU0, GPU2]彼此成环,[GPU1, GPU3]彼此成环;

上例中,CP在外层,TP在内层;

Context parallelism overview - NVIDIA Docs

优势:

适合long context的训练;

比较好的overlap了计算和通信;

节约显存,正向时得到的K、V的activation(用于反向计算梯度),按token划分,缓存在各个GPU上;

  • 14
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值