pytorch的理解-pytorch在CPU->GPU上的训练

https://www.cnblogs.com/zle1992/p/9047905.html

1、cpu->gpu迁移原理

将模型和数据从内存复制到GPU的显存中,就可以使用GPU进行训练,其操作方法是将数据和模型都使用.cuda()方法。

2、判断GPU是否可以使用:

通过torch.cuda.is_available()来返回值判断GPU是否可以使用

通过torch.cuda.device_count()获取能够使用的GPU数量

常用的判断

1 if torch.cuda.is_available():
2     ten1 = ten1.cuda()
3     MyModel = MyModel.cuda() 

3、数据迁移(包括Tensor类型和Variable类型)

直接使用.cuda()方法进行数据迁移,默认使用的是0号显卡,可以使用.cuda(<显卡号数>)将数据存储在指定的显卡中。

Tensor类型,直接使用.cuda()方法

1 ten1 = torch.FloatTensor(2)
3 ten1_cuda = ten1.cuda()

Variable类型(使用Variable容器装载数据,可以进行反向传播来实现自动求导),将Tensor.cuda()后装载在Variable中和将Tensor装载在Variable中后再使用.cuda()是同样的。

ten1 = torch.FloatTensor(2)
>>>  6.1101e+24
     4.5659e-41
    [torch.FloatTensor of size 2]

ten1_cuda = ten1.cuda()
>>>>  6.1101e+24
      4.5659e-41
    [torch.cuda.FloatTensor of size 2 (GPU 0)]

V1_cpu = autograd.Variable(ten1)
>>>> Variable containing:
     6.1101e+24
     4.5659e-41
    [torch.FloatTensor of size 2]

V2 = autograd.Variable(ten1_cuda)
>>>> Variable containing:
     6.1101e+24
     4.5659e-41
    [torch.cuda.FloatTensor of size 2 (GPU 0)]

V1 = V1_cpu.cuda()
>>>> Variable containing:
     6.1101e+24
     4.5659e-41
    [torch.cuda.FloatTensor of size 2 (GPU 0)]

模型迁移

将自己创建的模型和torch.nn中的模型转移到显卡中。可以将模型看做一种Variable容器,对他进行cuda处理,是将模型中所有分参数转移到显卡中。

torch.nn模型使用.cuda()后会将模型中的参数都转移到显卡中,变为torch.cuda.Tensor(FloatTensor或LongTensor)类型

自己模型的迁移,因为自己的模型继承了torch.nn.Module,所以可以将模型中用到的参数都存储到显存中去。但是模型中的方法创建的Tensor不会默认变为cuda类型,需要自己实现。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值