Training Technology Two : Torch.cuda.amp and Save


torch.cuda.amp是PyTorch中的一种自动混合精度训练工具。它可以帮助开发者在保持模型训练精度的同时,提高训练速度和减少内存占用。

# 导入必要的库
import torch
from torch.cuda.amp import autocast, GradScaler
 
# 创建GradScaler对象
scaler = GradScaler()
 
# 在训练循环中使用autocast和GradScaler
for data, target in train_loader:
    optimizer.zero_grad()
    
    # 开始自动混合精度训练
    with autocast():
        output = model(data)
        loss = loss_function(output, target)
    
    scaler.scale(loss).backward()
    scaler.step(optimizer)
    scaler.update()

在上述示例中,autocast()用于自动将前向传播、损失计算和反向传播的计算转换为半精度(FP16)运算。然后,GradScaler被用于缩放和反缩放梯度,以防止梯度下溢或溢出,并根据模型权重的尺度进行优化器步骤。

本文根据PyTorch 源码解读之 torch.cuda.amp: 自动混合精度详解, 节选部分知识.

autocast

可以作为 Python 上下文管理器和装饰器来使用,用来指定脚本中某个区域、或者某些函数,按照自动混合精度来运行。

GradScaler

fp16与fp32

fp16采用2字节存储, fp32采用4字节存储.

fp16第1位表示符号, 第2~6位表示指数, 第7~16为表示分数, 计算公式为:
( − 1 ) s i g n b i t × 2 ( e x p o n e n t − 15 ) × ( 1 + f r a c t i o n 1024 ) (-1)^{signbit}\times2^{(exponent-15)}\times(1+\frac{fraction}{1024}) (1)signbit×2(exponent15)×(1+1024fraction)

详情参考该文

关于 unscale_

经过 scaler.scale(loss).backward()得到的梯度是 scaled gradient如果想要在 scaler.step(optimizer)前进行梯度裁剪等操作就必须先用 ``scaler.unscale_(optimizer) ```得到 unscaled gradient.

详情参考该文.

因此,一般有如下搭配:

scaler.scale(loss).backward()

# Unscales the gradients of optimizer's assigned params in-place
scaler.unscale_(optimizer)

# Since the gradients of optimizer's assigned params are unscaled, clips as usual:
torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm)

# optimizer's gradients are already unscaled, so scaler.step does not unscale them,
# although it still skips optimizer.step() if the gradients contain infs or NaNs.
scaler.step(optimizer)

# Updates the scale for next iteration.
scaler.update()

保存

关于保存的过程可以参考该文

我们可以选择保存参数文件或者字典文件.

通常字典文件中包含的关键字有:

  1. epoch;
  2. state_dict;
  3. optimizer;
  4. 如果有scaler的话还要保存scaler.
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

右边是我女神

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值