PyTorch学习笔记:cuda方法——查看显卡信息
cuda常用方法
- 查看cuda是否可用
torch.cuda.is_available()
- 查看当前设备cuda数量
torch.cuda.device_count()
- 查看当前设备第i个cuda名称
torch.cuda.get_device_name(i)
- 设置默认使用第i块GPU
# 里面输入int类型的数字
torch.cuda.set_device(i)
- 返回当前默认的GPU设备索引
torch.cuda.current_device()
补充:
- 查看系统CPU数量
torch.cuda.os.cpu_count()
get_device_properties函数
用于获取指定GPU设备的各种属性信息,包括:
name
:GPU 设备的名称;total_memory
:提取GPU总显存大小,以字节为单位;major
:CUDA计算能力的主要版本号;minor
:CUDA计算能力的次要版本号;multi_processor_count
:GPU设备的多处理器数量;is_integrated
:GPU是否是集成显卡,如果返回True(或者1),则说明该显卡是集成显卡,否则是独立显卡;is_multi_gpu_board
:表示GPU是否是多GPU板卡,如果返回True(或者1),则说明该显卡是一个具有多GPU芯片的显卡;
代码案例
import torch
device_id = 0 # GPU 设备的 ID
properties = torch.cuda.get_device_properties(device_id)
print("Name: ", properties.name)
print("Total memory: ", properties.total_memory / (1024**2), "MB") # 转换为 MB 单位
print("CUDA capability: ", properties.major, ".", properties.minor)
print("Multiprocessor count: ", properties.multi_processor_count)
输出(以本机执行结果为例)
Name: NVIDIA GeForce RTX 3050
Total memory: 8191.5 MB
CUDA capability: 8 . 6
Multiprocessor count: 20