简单讲解pytorch使用GPU运行

一、前言

我们在pytorch深度学习进行模型预测的时候,往往会碰到数据庞大,模型复杂的情况,此时直接训练会调用CPU,速度很慢。我们可以选择使用GPU进行训练,提高效率。

二、方法

关于如何使用GPU网上目前没有比较简单的讲解,大多数都是一些例子或者复杂的情况。下面就根据自己的学习和实践来简单的讲一讲。

1、在训练数据和训练标签,测试数据和测试标签后面加上.cuda()

train_data = train_data.cuda()  
train_labels = train_labels.cuda()
test_data = test_data.cuda()
test_labels = test_labels.cuda()

2、将模型移动到cuda

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") 
lstm_model.to(device) # 移动模型到cuda

注意:其中lstm_model为你自己的模型实例化对象的名字。

3、在转化为numpy前要先将数据移动到cpu

predictive_y_for_training = predictive_y_for_training.view(-1, 1).data.cpu().numpy()

在前面.cuda()后,数据变为CUDA tensor.而numpy不能读取CUDA tensor,需要将它转化为 CPU tensor

  • 7
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值