pytorch学习日记(三)——之Data Parallelism

本文介绍了如何在PyTorch中利用GPU进行数据并行计算,包括将模型和张量移到GPU上以及在多个GPU上运行模型的步骤。通过代码示例展示了如何实现模型的Data Parallelism,从而加速深度学习训练过程。
摘要由CSDN通过智能技术生成

PyTorch中使用了张量类型,而不用numpy的array,就是为了可以在GPU上运行代码,那我们怎么样才能使用GPUs来加速运行呢。其实非常简单,几条语句就可以完成了。

1. 基本语句

  • 模型放到一个GPU上运行
    model.gpu()
  • 将张量放到GPU上
    mytensor = my_tensor.gpu()
    注: 仅仅调用my_tensor.gpu()函数并不会将张量复制到GPU上,所以一定要指定一个新的张量mytensor,然后在 GPU上用这个新的张量。
  • 模型放在多个GPU上运行
    上文中的model.gpu()默认只使用一个GPU,如果你有多个GPU的话,应该这样子调用
    model = nn.DataParallel(model)

2. 代码示例

在这个例子中,模型获取一个输入,经过线性变换后得到输出结果,具体的看下面的代码吧~

  • 包导入及参数定义
import torch
import torch.nn as nn
from torch.autograd import Variable
from torch.utils.data import Dataset, DataLoader

# Parameters and DataLoaders
input_size =
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值