如何用Ollama直接加载官网没有的本地大模型

大家在用ollama加载大模型时,第一步都是要到国外网站去下载模型,即需要科学 上网,又需要大带宽,且对于一些OLLAMA官网没有的大模型还不能直接使用,本文重点解决那种本地已经下载好的(含官网没有的)大模型如何直接被ollama加载使用问题。具体如下:

第一步:准备本地大模型

自己下载自己想要的大模型,或准备好自己微调过的模型备用。

第二步:将自己的模型拷贝到ollama指定目录下

以下以win11安装ollama情况下的操作为例,把模型拷贝到C:\Users\ASUS\.ollama\models\mixtral-4q\ggml-model-q4_k.gguf类似目录下,自己替换标红部分为自己电脑上的路径。

第三步:编辑创建一个*.mf文档

在.ollama\models\下创建一个txt文件,名字随便起,能区分是哪个大模型就行,内容如下:

FROM C:\Users\ASUS\.ollama\models\mixtral-4q\ggml-model-q4_k.gguf

TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>{{ end }}<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"

标红部分替换成自己的路径和文件名。

保存后将TXT后缀修改为.mf,如mixtral4q.mf

第四步:用Ollama加工你的本地大模型文件

在命令行终端中cd到C:\Users\ASUS\.ollama\models(标红部分替换成自己的路径)

然后运行ollama create ggml-model-q4_k -f mixtral4q.mf(标红部分替换成自己的大模型文件名和.mf文件名)

会运行几分钟如下图:

同时在\models\blobs目录下面会多出一个转换后的大模型,原来的大模型可以删了或移走,如下图:

这时ollama list命令可以看到你的本地模型了,如下图:

第五步 验证

然后运行ollama run ggml-model-q4_k,等一会,加载模型需要点时间,看到以下结果就大功告成

​​结束语,这个win11安装的ollama默认用cpu跑,我有GPU不能闲着啊,这个问题解决后给大家再分享。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值