1.首先要pip install huggingface-cli
然后看看你是否登录
huggingface-cli whoami
如果没有
huggingface-cli login(登录需要输入你的token,token值可以在https://huggingface.co/settings/tokens自动生成)
然后下载你想要下载的模型
比如下载llama2-7b,但是这个是受保护的,需要你用你登录的账号去申请一下,通过了才可以下载
huggingface-cli download --resume-download meta-llama/Llama-2-7b-hf --local-dir D:\model
本地部署则看下面这篇文档内容即可
Llama2通过llama.cpp模型量化 Windows&Linux本地部署_llama.cpp 部署 linux-CSDN博客