大模型训练时间估算

本文探讨了在自然语言处理模型训练中,开和不开激活重计算对GPU利用率和计算量的影响。开激活重计算时,GPU利用率约为0.45,每个参数进行8次浮点运算;不开时,由于反向传播计算量是前向的两倍,每个参数进行6次运算。当内存有限时,开启激活重计算较为合适。
摘要由CSDN通过智能技术生成

开激活重计算

在这里插入图片描述

在这里插入图片描述
GPU利用率一般在 0.3 - 0.55 之间,假定为0.45
4090 理论性能:FP16:82.58 TFLOPS

不开激活重计算

我们来说一下系数8或6是怎么来的:

  • 对于每个模型参数,都进行2次浮点数计算,即计算Y = AB 时,先将元素按位相乘,再按位相加,因此每个参数都需要进行两次浮点数运算。
  • 反向传播的计算量是前向传播时的两倍
    在这里插入图片描述
    个人理解,对每个参数而言,反向传播时需要计算:一阶导数、二阶导数、梯度累积、参数更新。总共四次运算,前向传播只需要计算两次,因此计算量是前向计算的两倍</
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ToTensor

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值