GPU显存不足-优化方案-pytorch

按照优化成本,对可以减少显存占用方案进行排序:

1.计算总loss时候进行代码优化

loss本身是一个包含梯度信息的 tensor,正确的求损失和的方式为:

total_loss += loss.item()

2.降低batch_size

适当降低batch size, 则模型每层的输入输出就会成线性减少, 效果相当明显。必须要多个batch_size时候可以采用梯度累计的方式,但是这比上直接降低batch_size占用显存会大点。

传统方式:

for i,(feature,target) in enumerate(train_loader):
    outputs = model(feature)  # 前向传播
    loss = criterion(outputs,target)  # 计算损失

    optimizer.zero_grad()   # 清空梯度
    loss.backward()  # 计算梯度
    optimizer.step()  # 反向传播, 更新网络参数

梯度累计:

for i,(features,target) in enumerate(train_loader):
    outputs = model(images)  # 前向传播
    loss = criterion(outputs,target)  # 计算损失
    loss = loss/accumulation_steps   # 可选,如果损失要在训练样本上取平均

    loss.backward()  # 计算梯度
    if((i+1)%accumulation_steps)==0:
        optimizer.step()        # 反向传播,更新网络参数
        optimizer.zero_grad()   # 清空梯度

3.Relu 的 inplace 参数

激活函数 Relu() 有一个默认参数 inplace ,默认为Flase, 当设置为True的时候,我们在通过relu() 计算得到的新值不会占用新的空间而是直接覆盖原来的值,这表示设为True, 可以节省一部分显存。

4.释放不需要的张量和变量

采用del释放你不再需要的张量和变量,这也要求我们在写模型的时候注意变量的使用,不要随心所欲,漫天飞舞。

5.数据变小

图像适当的缩小可以极大的降低参数量。

6.精简模型

减少卷积核数量; 尽量少的使用 Linear 等。全连接层参数较多,较少参数或则不用全连接层。使用全局平均池化进行替代。

参考链接.

  • 4
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当使用PyTorch训练神经网络时,显存不足是一个常见的问题。显存主要被网络模型和中间变量占用。网络模型中的参数占用显存,而中间变量包括特征图和优化器等是消耗显存最多的部分。以下是一些节省PyTorch显存占用的小技巧: 1. 减少批量大小(batch size):减少每个批次中样本的数量可以减少显存的使用量。但是要注意,较小的批量大小可能会影响模型的训练效果。 2. 使用半精度浮点数(half-precision floating point):PyTorch支持使用半精度浮点数进行训练,可以减少显存的使用量。可以使用`torch.cuda.amp`模块来实现自动混合精度训练。 3. 及时释放不需要的显存:在训练过程中,可以使用`torch.cuda.empty_cache()`来释放不需要的显存。 4. 减少模型参数的数量:可以通过减少网络模型的大小或使用更简单的模型来减少显存的使用量。 5. 使用分布式训练:如果有多个GPU可用,可以使用分布式训练来减少每个GPU上的显存使用量。 6. 使用梯度累积(gradient accumulation):将多个小批次的梯度累积起来更新模型参数,可以减少每个小批次的显存使用量。 7. 使用PyTorch优化优化显存使用:PyTorch提供了一些优化器,如`torch.optim`中的`pack_padded_sequence`和`pad_packed_sequence`,可以优化处理变长序列时的显存使用。 8. 使用PyTorch的分布式数据并行(DistributedDataParallel):可以使用`torch.nn.DataParallel`或`torch.nn.parallel.DistributedDataParallel`来在多个GPU上并行训练模型,从而减少每个GPU上的显存使用量。 这些方法可以帮助您在PyTorch中节省显存占用,但请注意,根据您的具体情况,可能需要根据实际情况进行调整和尝试。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值