跟李沐学AI-17 使用GPU

查看本机信息  nvidia-smi

!nvidia-smi

#===========
#打开cmd,输入:

nvidia-smi

1、计算设备

'''
在PyTorch中,CPU和GPU可以用torch.device('cpu') 和torch.device('cuda')表示。 
应该注意的是,cpu设备意味着所有物理CPU和内存, 这意味着PyTorch的计算将尝试使用所有CPU核心。 
然而,gpu设备只代表一个卡和相应的显存。 
如果有多个GPU,我们使用torch.device(f'cuda:{i}') 来表示i 块GPU(i  从0 开始)。 
另外,cuda:0和cuda是等价的。

import torch
'''
import torch
from torch import nn

torch.device('cpu'), torch.device('cuda'), torch.cuda.device('cuda:1')
#(device(type='cpu'), device(type='cuda'), device(type='cuda', index=1))

#我们可以查询可用gpu的数量。
torch.cuda.device_count()  #1
#现在我们定义了两个方便的函数, 这两个函数允许我们在不存在所需所有GPU的情况下运行代码。
def try_gpu(i=0):  #@save
    """如果存在,则返回gpu(i),否则返回cpu()"""
    if torch.cuda.device_count() >= i + 1:
        return torch.device(f'cuda:{i}')
    return torch.device('cpu')

def try_all_gpus():  #@save
    """返回所有可用的GPU,如果没有GPU,则返回[cpu(),]"""
    devices = [torch.device(f'cuda:{i}')
             for i in range(torch.cuda.device_count())]
    return devices if devices else [torch.device('cpu')]

try_gpu(), try_gpu(10), try_all_gpus()

'''
(device(type='cuda', index=0),

 device(type='cpu'),

 [device(type='cuda', index=0), device(type='cuda', index=1)])
'''

2、张量与GPU

1、查询张量所在设备

#查询张量所在的设备。 默认情况下,张量是在CPU上创建的。
x = torch.tensor([1, 2, 3])
x.device

#device(type='cpu')
'''
需要注意的是,无论何时我们要对多个项进行操作, 它们都必须在同一个设备上
例如,如果我们对两个张量求和, 我们需要确保两个张量都位于同一个设备上, 
否则框架将不知道在哪里存储结果,甚至不知道在哪里执行计算。
'''

2、 存储在GPU上

X = torch.ones(2, 3, device=try_gpu())
print(X)
'''
tensor([[1., 1., 1.],
        [1., 1., 1.]], device='cuda:0')
'''
Y = torch.rand(2, 3, device=try_gpu(1))
print(Y)
'''gpu(1)不存在,所以返回cpu
tensor([[0.5208, 0.1775, 0.0536],
        [0.2094, 0.1113, 0.5755]])  cpu
'''

3、复制

#见上文可知,x在cuda 上,y 在cpu 上

# Z = X.cuda(1)  #从一个cuda 拷贝到另一个指定编号的cuda 。若改变好不存在,会报错
# Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!
Z = X.cpu()  #拷贝到cpu
print(X)
print(Z)

print(Y + Z)
# 假设变量X已经存在于第二个GPU上。 如果我们还是调用X.cuda(0)会发生什么? 它将返回X,而不会复制并分配新内存。
print(X.cuda() is X)  #true

#  但是在设备(CPU、GPU和其他机器)之间传输数据比计算慢得多
'''
当我们打印张量或将张量转换为NumPy格式时, 如果数据不在内存中,框架会首先将其复制到内存中, 这会导致额外的传输开销。 
更糟糕的是,它现在受制于全局解释器锁,使得一切都得等待Python完成。
'''

3、神经网络与GPU

net = nn.Sequential(nn.Linear(3, 1))
# 类似地,神经网络模型可以指定设备。 下面的代码将模型参数放在GPU上。
net = net.to(device=try_gpu()) #移动到gpu
# 当输入为GPU上的张量时,模型将在同一GPU上计算结果。
print(net(X))
'''
tensor([[0.3718],
        [0.3718]], device='cuda:0', grad_fn=<AddmmBackward0>)
'''

# ?让我们确认模型参数存储在同一个GPU上。
# 查看某一参数所在的设备
print(net[0].weight.data.device)  #cuda:0

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值