大模型框架xinference的本地安装注意事项

pip install “xinference[all]”

问题

ERROR: Could not build wheels for llama-cpp-python, which is required to install pyproject.toml-based projects

根据系统选择官方编译后的whl下载进行离线安装。

官方网址
https://github.com/abetlen/llama-cpp-python/releases

问题,cuda

sudo apt install nvidia-cuda-toolkit

启动

xinference-local --host 0.0.0.0 --port 9997

因为xinference默认的是从huggingface下载大模型,网络原因根本下载不下来,需要更换为国内的源,这样,上面那句命令就要变为:
XINFERENCE_MODEL_SRC=modelscope xinference-local --host 0.0.0.0 --port 9997
这样,下载源就换为阿里的源了,同时服务也开启了。
这时候你在浏览器打开http://host-ip:9997/应该可以看到xinference的界面了。
注意:windows中使用127.0.0.1

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值