解决多卡加载预训练模型时,卡0总会比其他卡多占用显存,多卡占用显存不均

出现问题:

再跑stdc官方给出代码时,使用多卡加载pretrained模型时,卡0上比卡123多三个进程,卡123都只有一个进程,中断训练后卡0全部进程都中断。即卡0在正常训练时比卡123多占用显存。(使用nvidia-smi命令查看)

这里发现问题存在于load模型的时候,直接load的话会导致参数加载到之前保存模型的device上(大部分情况下应该是只用cuda0去保存),这里可以将load函数加一个参数为map_location解决:

model_weights = torch.load(path, map_location='cpu')

改完之后发现仍旧存在这个问题

后来查看代码的时候发现,在网络的class内部,init_weight的时候也有一个load函数。这个函数内部无map_location参数。

因此,加入这个参数后如果卡0仍旧多占用显存和进程的时候,可能是某个隐藏的类别内部存在torch.load函数。多找找加上map_location参数即可使得全部的卡占用相同显存。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
在PyTorch中,我们可以使用DataParallel模块来实现在单导入多卡训练模型。DataParallel可以将一个单模型并行复制到多个GPU上,并且在每个上独立地进行前向传播和梯度计算,最后再将梯度进行平均并更新单模型。 为了使用DataParallel,首先需要导入所需的库和模块: ```python import torch import torch.nn as nn from torch.utils.data import DataLoader ``` 然后,定义一个继承自nn.Module的模型,例如: ```python class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.fc = nn.Linear(10, 2) def forward(self, x): return self.fc(x) ``` 接下来,创建一个DataLoader来加载训练数据: ```python dataset = ... dataloader = DataLoader(dataset, batch_size=128, shuffle=True) ``` 然后,创建一个模型实例并将其放在指定的GPU上: ```python device = torch.device("cuda:0") model = MyModel().to(device) ``` 接下来,使用DataParallel将模型复制到所有可用的GPU上: ```python model = nn.DataParallel(model) ``` 这样,模型就能够在多个GPU上并行运行了。在训练过程中,可以像使用单训练模型一样进行训练操作: ```python optimizer = torch.optim.Adam(model.parameters(), lr=0.001) criterion = nn.CrossEntropyLoss() for epoch in range(num_epochs): for images, labels in dataloader: images = images.to(device) labels = labels.to(device) outputs = model(images) loss = criterion(outputs, labels) optimizer.zero_grad() loss.backward() optimizer.step() ``` 需要注意的是,DataParallel模块会自动将模型进行复制,以及将输入数据划分到不同的GPU上进行运算,因此在定义模型无需指定多卡运算。在进行推理或测试,可以使用.module属性获取到原始的单模型,并将其放在对应的设备(GPU或CPU)上运行。 以上就是使用PyTorch实现单导入多卡训练模型的简要介绍。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值