【问题记录】在载入ChatGLM3大语言模型时出现无法读取CUDA驱动的问题

问题:在我安装完成官方提供的标准库文件,在加载预训练模型的时候出现异常"Torch not compiled with CUDA enabled"

问题来源:我在查看包中,确实有正常安装Torch包,但是如果需要Torch支持CUDA驱动的,需要安装特定版本的包的,通过"pip install torch"直接安装的Torch包无法支持CUDA,可以通过执行以下脚本查看当前的torch版本是否支持

import torch
print(torch.__version__)
print(torch.version.cuda)

# 无法使用cuda显示的结果例:
    # 2.1.1+cpu 
    # None

# 正常使用cuda显示的结果例:
    # 2.1.1+cu121
    # 12.1

解决方案:通过指定版本和指定的网站来下载Torch的特定版本

pip install torch==2.1.1+cu121 -f https://download.pytorch.org/whl/torch_stable.html
或
pip install torch==2.1.1+cu121 -f https://download.pytorch.org/whl/torch/

两个网址都支持下载,也可以单独进入网站去找一找是否有符合你需要的版本

会自动执行下载安装,安装完成后可以再次运行上面的脚本查看结果,如果正常显示结果,那么这个问题就解决了

  • 6
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值