Pytorch之——GPU的使用


一、CPU与GPU

在这里插入图片描述
由图中可以看出GPU的计算单元远多于CPU的计算单元,因此,使用GPU的计算速度是大于CPU的计算速度的。

二、数据迁移至GPU

1.参数说明

在这里插入图片描述
在这里插入图片描述
inplace的意思就是说,对于tensor数据转成GPU的形式还需要重新赋值,如图中的x=x.to(“cuda”)。但是对于model来说,转成GPU的形式,不需要重新赋值,如图中的linear.to(gpu1)

2.源码

tensor to cuda

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
#tensor to cuda
x_cpu = torch.ones((3, 3))
 print("x_cpu:\ndevice: {} is_cuda: {} id: {}".format(x_cpu.device, x_cpu.is_cuda, id(x_cpu)))
 x_gpu = x_cpu.to(device)
 print("x_gpu:\ndevice: {} is_cuda: {} id: {}".format(x_gpu.device, x_gpu.is_cuda, id(x_gpu)))

module to cuda

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
net = nn.Sequential(nn.Linear(3, 3))
print("\nid:{} is_cuda: {}".format(id(net), next(net.parameters()).is_cuda))
net.to(device)
print("\nid:{} is_cuda: {}".format(id(net), next(net.parameters()).is_cuda))
# 弃用
x_gpu = x_cpu.cuda()

之前在Pytorch中都是使用这种方法,现在这种方法已经弃用

3.torch.cuda常用方法

在这里插入图片描述

三、多GPU并行计算

1.什么是多GPU并行计算

在这里插入图片描述
一个很形象的例子解释了什么是并行计算

2.Pytorch当中的并行计算

在这里插入图片描述

3.源码

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
 # model
 net = CNN()
 net = nn.DataParallel(net)
 net.to(device)

参考

深度之眼pytorch框架班

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值