【DDP踩坑记录】在0卡上出现多个进程

在使用DDP:DistributedDataParallel时,0卡上总是有多个进程

问题描述

在使用DDP训练时,发现0卡(或默认的第一张卡)上总是出现多个进程,这样就大大耽误我的计算效率!因为第一张卡爆了整个训练过程都要停下来!

这篇很棒,很多踩坑记录,我也是从这里得到我的解决方案:
https://www.zhihu.com/question/351342218

一个好的DDP程序:
应该是每张卡都占用的差不多,不会差特别多(不然就直接写DP了)

多个进程或显存占用不均匀可能的原因

  1. 使用tensor.cuda() ,使得新数据都默认在0卡上初始化;
  2. torch.load参数默认加载到0卡上,
    解决方法:
//将数据放到cpu上
checkpoint = torch.load("checkpoint.pth",map_location=torch.device('cpu')) 

//将数据放到当前进程所在的卡上;
checkpoint = torch.load("checkpoint.pth",map_location=f"cuda:{local_rank}")
  1. !!!实例化 model 时,如果你的模型在初始化时,其实也实例化了其他部件(将模型中的module作为一个可学习模型),一定要注意其实例化要加载到当前的gpu上!!** (我找了好久,原来在模型里面)** ;
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
要在多个GPU上训练Transformer模型,可以使用PyTorch的`nn.parallel.DistributedDataParallel`模块。这个模块可以在多个GPU和多个计算节点之间并行地训练模型。以下是一个使用`nn.parallel.DistributedDataParallel`模块进行多GPU训练的示例: 首先,需要将代码包裹在一个`torch.multiprocessing.spawn`函数中,该函数将启动多个进程。在这个函数中,需要指定每个进程运行的函数,以及要传递给这个函数的参数。 ```python import torch import torch.nn as nn import torch.distributed as dist import torch.multiprocessing as mp from torch.nn.parallel import DistributedDataParallel as DDP from torch.utils.data import DataLoader # 定义模型 class TransformerModel(nn.Module): def __init__(self): super(TransformerModel, self).__init__() # ... def forward(self, x): # ... return output # 定义训练函数 def train(rank, world_size): # 初始化进程组 dist.init_process_group("gloo", rank=rank, world_size=world_size) # 初始化模型和数据加载器 model = TransformerModel() train_data = DataLoader(...) val_data = DataLoader(...) # 将模型和数据加载器移动到设备上 device = torch.device("cuda", rank) model.to(device) train_data = train_data.to(device) val_data = val_data.to(device) # 对模型进行分布式并行 model = DDP(model, device_ids=[rank]) # 定义优化器和损失函数 optimizer = torch.optim.Adam(...) criterion = nn.CrossEntropyLoss() # 训练模型 for epoch in range(num_epochs): for i, (inputs, labels) in enumerate(train_data): # 前向传播 outputs = model(inputs) loss = criterion(outputs, labels) # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() # 在验证集上测试模型 with torch.no_grad(): total_loss = 0 for inputs, labels in val_data: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) loss = criterion(outputs, labels) total_loss += loss.item() avg_loss = total_loss / len(val_data) print("Rank", rank, "Epoch", epoch, "Validation Loss:", avg_loss) # 清理进程组 dist.destroy_process_group() # 启动多个进程进行训练 if __name__ == "__main__": num_processes = 2 world_size = num_processes mp.spawn(train, args=(world_size,), nprocs=num_processes, join=True) ``` 在上面的代码中,先使用`dist.init_process_group`函数初始化进程组,然后指定模型和数据加载器在哪个设备上运行,并使用`DDP`对模型进行分布式并行。在训练过程中,每个进程都会收到自己的数据,并在自己的设备上进行训练和反向传播。最后,在每个进程中测试模型并输出验证集上的损失。 需要注意的是,`nn.parallel.DistributedDataParallel`模块需要使用分布式后端(如`gloo`)进行通信。在实际使用时,还需要注意使用相同的分布式后端和相同的端口号。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值