- 博客(3)
- 收藏
- 关注
原创 ubuntu系统部署llama-factory加载本地模型显示错误
huggingface_hub.errors.HFValidationError: Repo id must use alphanumeric chars or '-', '_', '.', '--' and '..' are forbidden, '-' and '.' cannot start or end the name, max length is 96: 'E:/DeepSeek-R1-Distill-Llama-70B' 出现这个问题是路径问题。如果你的本地模型文件是。
2025-04-22 10:50:16
301
原创 安装 conda和LLaMa-factory
执行pip install -e .[torch,metrics]如果出现未找到llamafactory-cli webui的情况。之后进入到llama-factory文件夹,执行。在ubuntu里安装,使用命令创建环境激活环境。下载llama-factory。直接去官网下载linux版。执行完成之后运行试一下。
2025-04-22 10:21:33
235
原创 在wsl-ubuntu系统内安装cuda和pytorch
笔者在window11系统下,安装cuda12.8和pytorch128(nightly),但是在进行模型微调阶段出现了torch128未编译libuv的情况,笔者通过各种平台寻找解决方法,但是无果,之前尝试的 set USE_LIBUV=0,use_libuv=False,甚至直接找源码修改,都没有解决这个问题。在该网址内选择linux-wsl ubuntu 按照下面的所给的命令执行即可。然后nvcc --version,验证一下。然后在~./bashrc内插入一下两行。安装cuda12.8。
2025-04-21 15:27:24
432
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人