代码
import torch
print('CUDA版本:',torch.version.cuda)
print('Pytorch版本:',torch.__version__)
print('显卡是否可用:','可用' if(torch.cuda.is_available()) else '不可用')
print('显卡数量:',torch.cuda.device_count())
print('当前显卡型号:',torch.cuda.get_device_name())
print('当前显卡的CUDA算力:',torch.cuda.get_device_capability())
print('当前显卡的总显存:',torch.cuda.get_device_properties(0).total_memory/1024/1024/1024,'GB')
print('是否支持TensorCore:','支持' if (torch.cuda.get_device_properties(0).major >= 7) else '不支持')
print('当前显卡的显存使用率:',torch.cuda.memory_allocated(0)/torch.cuda.get_device_properties(0).total_memory*100,'%')
输出示例
CUDA版本: 10.1
Pytorch版本: 1.7.1+cu101
显卡是否可用: 可用
显卡数量: 2
当前显卡型号: NVIDIA GeForce RTX 4080
当前显卡的CUDA算力: (8, 9)
当前显卡的总显存: 15.9915771484375 GB
是否支持TensorCore: 支持
当前显卡的显存使用率: 0.0 %