注意Pytorch中GPU与CPU的使用

其实在Pytorch中并不是在任何情况下把数据放到GPU下就能训练效率,减少训练时间。

下面举个例子:

import torch
import time

print(torch.cuda.is_available())

print(torch.cuda.current_device())



###CPU
start_time = time.time()
a = torch.ones(5,5)
for _ in range(1000000):
    a += a
elapsed_time = time.time() - start_time

print('CPU time = ',elapsed_time)

###GPU
start_time = time.time()
b = torch.ones(5,5).cuda()
for _ in range(1000000):
    b += b
elapsed_time = time.time() - start_time

print('GPU time = ',elapsed_time)

运行结果:

True
0
CPU time =  1.8500258922576904
GPU time =  8.387852907180786

Process finished with exit code 0

可以看出CPU运行的速度比GPU快很多,这是什么原因呢?

其实,这是由于GPU加速通过大量的计算并行化来工作.即使同步计算,然而在上面的例子同步计算只有矩阵中25个元素,对于for循环而言,必须知道前一个时候值才能进行下一时刻值的计算,所以并不能实现并行计算。

但是如果改变张量的大小,事情会发生变化,那么PyTorch能够并行化更多的整体计算.我将迭代更改为500的值,结果如下:

True
0
CPU time =  22.1019504070282
GPU time =  86.17750453948975

Process finished with exit code 0

可以看出当为当为5×5的时候CPU为GPU的大约4.5倍,当为500×500时只有3.89倍,这里可以更改为更大的值你就会发现GPU的效果了,所以以后知道什么时候用CPU,什么时候用GPU了吧。

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值