使用GPU前,我们首先需要查看GPU信息,这可以通过如下命令实现:
在命令行输入:
nvidia-smi
输出如下:
可以看到总共有两块3090显卡。
一、设定计算设备
默认情况下Pytorch将数据创建在内存,然后利用CPU进行计算,所以我们我们需要手动设定GPU信息。接下来介绍几个相关指令
- 查看GPU是否可用:torch.cuda.is_available()
- 查看GPU数量:torch.cuda.device_count()
- 查看当前GPU索引号(从0开始):torch.cuda.current_device()
- 根据索引号查看GPU名字:torch.cuda.get_device_name(index_number:int)
二、TENSOR的GPU计算
默认情况下,Tensor会被存储在内存上。因此,我们打印Tensor时候看不到GPU相关标识:
x=torch.tensor([1,2,3])
print(x)
输出:
tensor([1