结果不能复现的原因 GPU cudnn cudnn.benchmark = True

GPU的使用

在定义模型时,如果没有特定的GPU设置,会使用 torch.nn.DataParallel 将模型并行化,充分利用多GPU的性能,这在加速训练上有显著影响。这段代码设置后,仍然可以复现。

model = torch.nn.DataParallel(model).cuda()

第一种 不使用cudnn 的配置来复现结果

为了确保实验结果的完全可复现性,通常需要关闭cudnn.benchmark 并设置 cudnn.deterministicTrue。具体来说,可以使用以下设置:

cudnn.benchmark = True

应该设置为:

import torch
import torch.backends.cudnn as cudnn

cudnn.benchmark = False
cudnn.deterministic = True
input, target = input.to(args.device), target.to(args.device)

缺点:

加了之后论文不能复现 

第二种 使用cudnn的配置来复现结果

    os.environ['CUDA_VISIBLE_DEVICES'] = args.gpu
    cudnn.benchmark = True
input, target = input.cuda(), target.cuda()

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值