【cuda】查看显卡支持什么精度

nvidia官网查看显卡算力

https://developer.nvidia.com/cuda-gpus#compute

查看支持精度,通过算力找到对应

https://docs.nvidia.com/deeplearning/tensorrt/support-matrix/index.html#hardware-precision-matrix

检查 CUDA 是否可用:使用 torch.cuda.is_available() 检查是否有可用的 CUDA 设备。
获取 CUDA 设备名称:使用 torch.cuda.get_device_name(device) 获取 CUDA 设备的名称。
获取 CUDA 设备能力:使用 torch.cuda.get_device_capability(device) 获取 CUDA 设备的能力值。这些值通常表示为 (major, minor) 对,其中 major 表示主要版本号,而 minor 表示次要版本号。
根据能力值判断支持的精度:
如果 major 大于等于 5,则支持半精度(FP16)。
如果 major 大于等于 7,则支持张量核心(TF32)、混合精度(FP16 + FP32)、全精度(FP32)和双精度(FP64)

import torch

# 检查是否有可用的 CUDA 设备
if torch.cuda.is_available():
    # 获取第一个可用的 CUDA 设备
    device = torch.device("cuda:0")
    
    # 获取 CUDA 设备的一些基本信息
    print("CUDA Device Name:", torch.cuda.get_device_name(device))
    print("CUDA Device Capability:", torch.cuda.get_device_capability(device))
    
    # CUDA 设备的能力值可以用来确定支持的精度
    major, minor = torch.cuda.get_device_capability(device)
    
    # 根据 CUDA 设备的能力值判断支持的精度
    if major >= 5:
        print("Supports half precision (FP16)")
    if major >= 7:
        print("Supports tensor cores (TF32)")
    if major >= 7:
        print("Supports mixed precision (FP16 + FP32)")
    if major >= 7:
        print("Supports full precision (FP32)")
    if major >= 7:
        print("Supports double precision (FP64)")
else:
    print("No CUDA-capable device found.")

运行结果

CUDA Device Name: NVIDIA GeForce RTX 4060 Laptop GPU
CUDA Device Capability: (8, 9)
Supports half precision (FP16)
Supports tensor cores (TF32)
Supports mixed precision (FP16 + FP32)
Supports full precision (FP32)
Supports double precision (FP64)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rhythmcc

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值