【AI学习】在魔塔社区玩Ollama:部署GLM4和CodeGeeX4

看到文章《Ollama可以玩GLM4和CodeGeeX4了,快来魔搭玩起来》,参考的运行了一遍,折腾了一个晚上加一个上午,终于搞定了。本来很简单的事情,对这个代码小白,还是有点坑。。
GPU要明显快很多,CPU的速度,也还凑合吧。

个人尝试,整个过程如下:

1)启动魔塔社区的Notebook环境:
在这里插入图片描述
2)启动一个Terminal
在这里插入图片描述
3)在启动的Terminal输入以下命令:
先需要下载模型

modelscope download --model=LLM-Research/glm-4-9b-chat-GGUF --local_dir . glm-4-9b-chat.Q5_K.gguf

使用魔搭镜像环境安装,这一步是必须的:

modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux
cd ollama-linux
sudo chmod 777 ./ollama-modelscope-install.sh
./ollama-modelscope-install.sh

启动Ollama服务

ollama serve

显示如下:
在这里插入图片描述
3)然后再启动一个Terminal
注意,需要另外启动一个Terminal
创建ModelFile
复制模型路径,创建名为“ModelFile”的meta文件,内容如下:

FROM /mnt/workspace/glm-4-9b-chat.Q5_K.gguf
#FROM /mnt/workspace/codegeex4-all-9b-Q5_K_M.gguf

# set parameters
PARAMETER stop "<|system|>"
PARAMETER stop "<|user|>"
PARAMETER stop "<|assistant|>"

TEMPLATE """[gMASK]<sop>{{ if .System }}<|system|>
{{ .System }}{{ end }}{{ if .Prompt }}<|user|>
{{ .Prompt }}{{ end }}<|assistant|>
{{ .Response }}"""

创建自定义模型
使用ollama create命令创建自定义模型

ollama create myglm4 --file ModelFile

运行模型:

ollama run myglm4

然后就成功了,显示如下:
在这里插入图片描述
4)也尝试了一下CodeGeeX4-ALL-9B 的Ollama部署

基本过程也一样
就是需要先下载模型:

modelscope download --model=LLM-Research/codegeex4-all-9b-GGUF --local_dir . codegeex4-all-9b-Q5_K_M.gguf

修改ModelFile,把“#FROM /mnt/workspace/codegeex4-all-9b-Q5_K_M.gguf”的注释取消,把“FROM /mnt/workspace/glm-4-9b-chat.Q5_K.gguf”注释掉

最后结果如下:
在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值