PyTorch 分布式训练 --- 数据加载之DistributedSampler

1. 一句话总结:

DDP中DistributedSampler保证测试数据集加载固定顺序,且在各个程序中都是一样时(因为shuffle=True时使用了随机种子,不保证在各个程序中测试数据集加载顺序都是一样),最好在DistributedSampler中保证参数shuflle=False,训练集需要保证shuffle=True(DistributedSampler中默认shuffle参数是True)。
DDP中在DataLoader中需要保证测试数据集和训练数据集都是shuffle=False(参数shuflle默认是False),因为有了sampler进行数据采样,如果shuffle=True会与sampler进行采样冲突,出现报错(DataLoader中默认shuflle参数是False)。如果不是DDP,则需要保证训练数据集的dataloader中shuffle参数是True,测试数据集的dataloader中shuffle参数是False。

2. 参考链接:

  1. Pytorch中DistributedSampler()中的随机因素
  2. Pytorch按照固定顺序加载样本
  3. Pytorch Distributed相关代码学习(一)
  4. [源码解析] PyTorch 分布式(1) — 数据加载之DistributedSampler
  5. 关于DistributedSampler理解
  6. pytorch分布式系列3——分布式训练时,torch.utils.data.distributed.DistributedSampler做了什么?
  7. pytorch 的 DataLoader中的shuffer与随机种子
  8. pytorch多GPU并行训练DistributedDataParallel应用和踩坑记录
  9. PyTorch多卡分布式训练DistributedDataParallel 使用方法
  10. 官方:https://pytorch.org/docs/stable/data.html#
  11. 官方:https://pytorch.org/tutorials/intermediate/ddp_tutorial.html
  12. 官方:https://pytorch.org/docs/stable/notes/ddp.html
  13. 关于pytorch中的distributedsampler函数使用
  14. Pytorch DistributedDataParallel 数据采样 shuffle
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch支持多卡分布式训练,可以利用多个GPU进行模型的并行计算。下面是一个简单的示例代码,展示了如何使用PyTorch进行多卡分布式训练: ```python import torch import torch.nn as nn import torch.optim as optim import torch.distributed as dist from torch.nn.parallel import DistributedDataParallel # 初始化进程组 dist.init_process_group(backend='nccl') # 设置设备和参数 device = torch.device('cuda') batch_size = 64 learning_rate = 0.01 num_epochs = 10 # 定义模型 model = nn.Linear(10, 1).to(device) model = DistributedDataParallel(model) # 定义数据加载器 train_dataset = ... train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset) train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, sampler=train_sampler) # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(), lr=learning_rate) # 训练模型 for epoch in range(num_epochs): for inputs, labels in train_loader: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) loss = criterion(outputs, labels) optimizer.zero_grad() loss.backward() optimizer.step() # 清理进程组 dist.destroy_process_group() ``` 在这个示例中,我们首先使用`dist.init_process_group`初始化进程组,然后将模型包装在`DistributedDataParallel`中以实现多卡并行计算。接下来,我们创建了一个数据加载器,并使用`DistributedSampler`进行数据分布式采样。然后,我们定义了损失函数和优化器,并在每个epoch内进行训练。最后,我们使用`dist.destroy_process_group`清理进程组。 请注意,这只是一个简单的示例,实际的多卡分布式训练可能还涉及到其他内容,如数据并行、模型的同步等。具体的实现方式可能因具体的情况而有所不同,请根据自己的需求进行相应的调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值