DeBug Record——Pytorch设置默认CUDA不是0号

Pytorch设置默认CUDA不是0号

重新整理

返回来看自己之前的这篇文章,感觉写的逻辑太混乱了,回来简化一下。原先的版本留在文章结尾。

问题

Pytorch的版本是1.2.0,不知道现在改了没。
我希望能够只调用3号GPU,但是在用Pytorch库调用GPU时,使用以下代码,都会占用一些0号GPU显存:

# 版本一

with torch.cuda.device(3):
    main(opt)

# 版本二 设置环境变量(并没起作用,当时Pytorch版本为1.2.0)
import torch
import os
os.environ['CUDA_VISIBLE_DEVICES']='3'

解决方案

两种方案:
CUDA_VISIBLE_DEVICES=3 python script.py
或者

import os
os.environ['CUDA_VISIBLE_DEVICES']='3'
# 在torch之前设置好环境变量
import torch

原先的版本

问题说明

实验室服务器有4个GPU,同学用了0号,0号显存基本占满,剩余3个GPU,在代码里只使用了CUDA:3,但是cuda总是说memory不足。
报错:


                
  • 9
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值