要使用Ollama拉取Hugging Face上的大模型,你可以按照以下步骤操作:
-
升级Ollama:确保你的Ollama是最新版本,因为新版本支持直接运行Hugging Face上的GGUF格式模型。
-
找到模型:访问Hugging Face官网,找到你需要的大模型,并记录下模型的网址。
-
使用镜像站:由于国内网络环境的问题,可能无法直接访问huggingface.co,可以将网址替换为镜像站网址hf-mirror.com,例如将
https://huggingface.co/NexaAIDev/omnivision-968M
替换为https://hf-mirror.com/NexaAIDev/omnivision-968M
。 -
拉取模型:使用Ollama命令拉取模型,格式为
ollama run hf-mirror.com/{username}/{repository}:{quantization}
,其中{quantization}
是模型的量化版本,如果不写的话默认为latest
,即最新发布的版本。例如,拉取一个名为omnivision-968M
的模型,命令可以是ollama run hf-mirror.com/NexaAIDev/omnivision-968M:494M-Q8_0
。 -
指定量化版本:如果需要指定特定的量化版本,可以在模型名后加上冒号和量化方案名称,例如
ollama run hf.co/{username}/{repository}:{quantization}
。 -
运行模型:执行上述命令后,Ollama会检查本地是否有该模型,如果没有,会自动从Hugging Face或镜像站下载,并运行该模型。
请注意,每次运行 ollama run
命令时,Ollama都会尝试从模型库中拉取GGUF模型,这可能会导致空间浪费,因为每次都会重新下载模型。如果你遇到网络连接问题,可以尝试使用代理或者设置镜像源来加速下载。