使用Ollama部署非官方仓库模型(Windows)

一、从GitHub拉去llama.cpp项目

git clone https://github.com/ggerganov/llama.cpp

下载完成后在当前目录的路径输入cmd,进入命令行
在这里插入图片描述

二、安装python执行的相关依赖

执行

pip install -r requirements.txt 

在这里插入图片描述

三、下载模型文件

依赖安装成功后开始转换模型这里以魔塔上的Chat2DB为例,按照下载步骤使用git拉去模型到本地
在这里插入图片描述
在这里插入图片描述

四、执行转换gguf命令

python convert-hf-to-gguf.py D:\tool\ollama\models\Chat2DB-SQL-7B

在这里插入图片描述

执行完成后会在模型目录生成一个ggml-model-f16.gguf文件*
在这里插入图片描述

五、接下来是进行量化

到GitHub上下载发布的版本,也可以本地编译
https://github.com/ggerganov/llama.cpp/releases
在这里插入图片描述

我这边在的是llama-b3291-bin-win-noavx-x64,

.\llama-quantize.exe D:\tool\ollama\models\Chat2DB-SQL-7B\ggml-model-f16.gguf D:\tool\ollama\models\Chat2DB-SQL-7B\ggml-model-Q4_K_M.gguf Q4_K_M

在这里插入图片描述

执行完成后在模型目录会生成ggml-model-Q4_K_M.gguf文件
在这里插入图片描述

六、使用Ollama创建模型

在当前文件创建Modelfile文件,里面内容如下

FROM ./ggml-model-Q4_K_M.gguf

在这里插入图片描述
在当前目录进入cmd,输入

ollama create chat2DB:7B -f Modelfile

创建ollama可以运行的模型

ollama run chat2DB:7B

在这里插入图片描述

这样一个自定义的模型就使用Ollama运行起来啦

  • 11
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有理想,在路上

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值