llama3 Llama-Factory微调中的问题(Llama-Factory提升无cuda)

首先:我们要安装cuda toolkit
nvidia官网下载(国内可能进不去)

nvcc -V

cmd输入以上代码检测是否安装成功

然后是配置环境:

首先是

import torch
print(torch.cuda.is_available())  # 是否可以用gpu False不能,True可以
print(torch.cuda.device_count())  # gpu数量, 0就是没有,1就是检测到了
print(torch.__version__) #结果X.X.X+cpu不行

进入官网Start Locally | PyTorch下载pytorch

#torch.cuda.is_available()返回false——解决办法_cuda available false-CSDN博客这篇文章有更详细的解决办法 建议查看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值