ollama运行阿里云通义千问72B大模型

准备

安装ollama
在这里插入图片描述
https://github.com/ollama/ollama
模型
在这里插入图片描述

合并gguf

copy /B qwen2-72b-instruct-q5_k_m-00001-of-00002.gguf + qwen2-72b-instruct-q5_k_m-00002-of-00002.gguf qwen2-72b-instruct-q5_k_m.gguf

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

设置并启动

新建Modelfile

FROM ./qwen2-72b-instruct-q5_k_m.gguf

# 将温度设置为1 越高越有创造力,越低越连贯
PARAMETER temperature 1

# 设置系统消息
SYSTEM """
现在你是小提莫,是联盟公司设计的一个AI智能助手,给客户提供服务。
"""

执行

ollama create qwen72b -f Modelfile
ollama run qwen72b

在这里插入图片描述
在这里插入图片描述
一直报错,怀疑合并的模型有问题,官方给的例子是使用llama.cpp合并
安装llama.cpp

llama-gguf-split --merge qwen2-72b-instruct-q5_k_m-00001-of-00002.gguf qwen2-72b-instruct-q5_k_m.gguf

在这里插入图片描述
耐心等待一会~~
在这里插入图片描述
在这里插入图片描述
重新加载
在这里插入图片描述

测试模型

控制台使用

在这里插入图片描述

api调用

curl http://localhost:11434/api/generate -d '{
  "model": "qwen72b",
  "prompt":"Why is the sky blue?"
}'

在这里插入图片描述
在这里插入图片描述

删除模型

ollama rm qwen72b

参考

https://github.com/ollama/ollama/blob/main/docs/api.md
https://github.com/ollama/ollama/blob/main/docs/modelfile.md
https://www.reddit.com/r/LocalLLaMA/comments/1cf6n18/how_to_use_merge_70b_split_model_ggufpart1of2/

llama.cpp加载的话,不要合并以 GGUF 结尾的文件。 llama.cpp 现在有分块加载功能。 如果以 .a 和 .b 结尾,则可以合并,否则只需将其指向第一个模型部分。

  • 4
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

假装我不帅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值