Pytorch中将数据传递到指定设备

引言

在使用Pytorch进行网络训练时,我们通常需要把数据传递到指定的设备(例如GPU)上,关于这方面的博客有很多,但是大家的方法各不相同,对此我进行了一个总结


大家方法各不相同的原因是pytorch将以下不同写法解读为指向同一个设备
GPU:索引 = “cuda:索引” = torch.device
CPU:“cpu” = torch.device
上述torch.device的初始化方法有以下几种,其中也体现着一些等价性

# GPU
torch.device(0)
torch.device("cuda:0")
torch.device("cuda", 0)
# CPU
torch.device("cpu")

总体来说,传递方法共有3种,分别是“device参数”,“to()”和“cuda() & cpu()”

device参数

# gpu
x = torch.ones((3, 3), device=0)
x = torch.ones((3, 3), device="cuda:0")
x = torch.ones((3, 3), device=device(0/"cuda:0"))
# cpu
x = torch.ones((3, 3), device="cpu")
x = torch.ones((3, 3), device=torch.device("cpu"))

to()

# gpu
x = torch.ones((3, 3)).to(0)
x = torch.ones((3, 3)).to("cuda:0")
x = torch.ones((3, 3)).to(torch.device(0/"cuda:0"))
# cpu
x = torch.ones((3, 3)).to("cpu")
x = torch.ones((3, 3)).to(torch.device("cpu"))

cuda() & cpu()

x = torch.ones((3, 3)).cuda()  # 具体索引等于 torch.cuda.current_device()的结果
x = torch.ones((3, 3)).cpu()

指定GPU进行训练

有时候我们的机器有4张GPU,但是我们只想利用其中索引为2,3的卡进行训练怎么办呢?可以在程序开头下入以下环境变量的设置

os.environ["CUDA_VISIBLE_DEVICES"] = "2, 3"

此时,代码中"cuda:0"实际代表现实中索引为2的卡

关于torch.cuda.set_device()

对于这个函数,官方解释是设置当前使用的设备,我以为在开头用该函数设置以后,后面创建的所有数据就会自动放到该设备上,观察下面代码的结果,发现并不是这样。这个函数我感觉挺鸡肋

torch.cuda.set_device(0)
x = torch.FloatTensor([1, 2])
print(torch.cuda.current_device())  # 结果是0
print(x.device)                     # 结果是cpu
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值