大家在用ollama加载大模型时,第一步都是要到国外网站去下载模型,即需要科学 上网,又需要大带宽,且对于一些OLLAMA官网没有的大模型还不能直接使用,本文重点解决那种本地已经下载好的(含官网没有的)大模型如何直接被ollama加载使用问题。具体如下:
第一步:准备本地大模型
自己下载自己想要的大模型,或准备好自己微调过的模型备用。
第二步:将自己的模型拷贝到ollama指定目录下
以下以win11安装ollama情况下的操作为例,把模型拷贝到C:\Users\ASUS\.ollama\models\mixtral-4q\ggml-model-q4_k.gguf类似目录下,自己替换标红部分为自己电脑上的路径。
第三步:编辑创建一个*.mf文档
在.ollama\models\下创建一个txt文件,名字随便起,能区分是哪个大模型就行,内容如下:
FROM C:\Users\ASUS\.ollama\models\mixtral-4q\ggml-model-q4_k.gguf
TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>{{ end }}<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"
标红部分替换成自己的路径和文件名。
保存后将TXT后缀修改为.mf,如mixtral4q.mf
第四步:用Ollama加工你的本地大模型文件
在命令行终端中cd到C:\Users\ASUS\.ollama\models(标红部分替换成自己的路径)
然后运行ollama create ggml-model-q4_k -f mixtral4q.mf(标红部分替换成自己的大模型文件名和.mf文件名)
会运行几分钟如下图:
同时在\models\blobs目录下面会多出一个转换后的大模型,原来的大模型可以删了或移走,如下图:
这时ollama list命令可以看到你的本地模型了,如下图:
第五步 验证
然后运行ollama run ggml-model-q4_k,等一会,加载模型需要点时间,看到以下结果就大功告成
结束语,这个win11安装的ollama默认用cpu跑,我有GPU不能闲着啊,这个问题解决后给大家再分享。