多GPU训练:torch.nn.DataParallel()指定显卡

遇到大的模型一般会采用torch.nn.DataParallel()的方式使用多GPU进行训练,但torch.nn.DataParallel()这个方式会每次调用GPU:0,如果0卡被占用就训练不起来了。在此提供两种指定GPU的方法:

方法一:.cuda(‘cuda:3’)

这种方法就是将有cuda()的地方全部里面指定卡,但是这样改的地方太多,要是再做变动就会很麻烦,而且貌似不可以指定两张卡。

方法二: os.environ[“CUDA_VISIBLE_DEVICES”] = ‘1,2’

这种方法可以让程序只看到1卡和2卡,这时候机器就会认为1卡就是GPU:0。所以输出报错或者其他输出当前GPU是在GPU:0,但其实是跑在GPU:1上。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值