在使用cuda进行代码训练,特别是在服务器上进行训练时,通常会出现其他显卡未占用而自己代码所占用的显卡out of memory的情况,这个时候我们就可以换显卡训练具体有两种方法
方法一:
在使用显卡的语句指定显卡号
#如
device = torch.device()
#改为
device = torch.device("cuda:0")
#其中数字为想要使用的显卡编号
#或者
x=x.to(device)
x=x.cuda()
#改为
x=x.to("cuda:0")
x=x.cuda("cuda:0")
方法二:
在代码最前端声明使用的显卡,如下,其中数字为使用的显卡编号
import os
os.environ['CUDA_LAUNCH_BLOCKING']='1'
os.environ['CUDA_VISIBLE_DEVICES']='1'