Pytorch使用GradScaler进行训练加速

起因是一次参考一个github项目时,发现该项目训练和验证一个epoch耗时30s,而我的项目训练和验证一个epoch耗时53s,当训练多个epoch时,这个差异就很大了。通过研究发现github项目使用了GradScaler来进行加速,所以这里总结一下。

1、Pytorch的GradScaler

GradScaler在文章Pytorch自动混合精度(AMP)介绍与使用中有详细的介绍,也即是如果tensor全是torch.float32,计算成本会大一些,但是单精度(FP32)与半精度(FP16)结合在一起,在保证精度的情况下,会加快训练。想看原理的去上面这篇文章,这里总结一下使用。

2、如何使用

下面给出代码,省略了一下与GradScaler无关的代码,同时#标注的是于GradScaler不想关的代码。

from torch.cuda.amp import GradScaler

scaler = GradScaler()	# 实例化对象

for imgs,labels in dataloader:
	#imgs=imgs.to(device)		# Tensor:(16,10,1,40,40) torch.float32
	#labels=labels.to(device)		# Tensor:(16,) torch.int64
	
	with autocast():
		#predict = model(imgs)
		#loss = criterion(predict, labels)
	
		scaler.scale(loss).backward()	# 计算梯度
		scaler.step(optimizer)	# 调整lr
        scaler.update()		# 更新梯度
        # optimizer.zero_grad()	 # 梯度清零(不涉及复杂计算,所以不需要GradScaler参与)
  • 16
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
使用 AMD 显卡训练 PyTorch 模型之前,需要先确保以下几点: 1. 安装 AMD ROCm 软件包。该软件包是 AMD 显卡的驱动程序和运行时环境。可以在 AMD 官网上下载和安装。 2. 安装 PyTorch ROCm 版本。PyTorch ROCm 版本是针对 AMD 显卡的优化版本,可以提高模型训练的速度和效率。 3. 安装深度学习框架所需的依赖项。这些依赖项包括 CUDA、cuDNN 等,可以在 PyTorch 官网上找到安装指南。 安装完成后,可以按照以下步骤使用 AMD 显卡训练 PyTorch 模型: 1. 导入 PyTorch 和其他必要的库: ``` import torch import torch.nn as nn import torch.optim as optim ``` 2. 定义模型和损失函数: ``` class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.fc1 = nn.Linear(10, 5) self.fc2 = nn.Linear(5, 2) def forward(self, x): x = self.fc1(x) x = nn.ReLU()(x) x = self.fc2(x) return x model = Model() criterion = nn.CrossEntropyLoss() ``` 3. 定义优化器: ``` optimizer = optim.Adam(model.parameters(), lr=0.01) ``` 4. 加载数据集: ``` train_dataset = ... train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True) ``` 5. 训练模型: ``` for epoch in range(10): for i, data in enumerate(train_loader): inputs, labels = data optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() ``` 这是一个简单的 PyTorch 模型训练示例。在使用 AMD 显卡训练时,需要将代码中的 CUDA 相关函数替换为 ROCm 相关函数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是一个对称矩阵

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值