Reducing Activation Recomputation in Large Transformer Models

Reducing Activation Recomputation in Large Transformer Models

背景

训练大的transformer模型需要的资源是庞大的,内存是主要的限制之一。在前向传播的过程不保存激活值,反向传播的时候重计算。这节约了内存,但是增加了计算。

流水线并行各rank内存的分配情况

在这里插入图片描述

GPU集群的管理与维护

如何高效的使用GPU集群
GPUs used in pipeline parallel model training store the input activations of layers until they are
consumed at the gradient computation during back-propagation. As discussed in Section 4.2.3, the first
pipeline stage stores the most activations, an equivalent of storing activations for all of the transformer
layers in the model.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值