Ollama内网离线部署大模型

Ollama内网离线部署大模型

本文以codeqwen:7b大模型为例编写部署步骤

1、大模型源文件准备

(1)国内大模型源文件下载地址https://modelscope.cn/models

在这里插入图片描述

(2)国外大模型源文件下载地址https://huggingface.co/models

在这里插入图片描述

2、准备Modelfile文件

(1)Modelfile参数说明

命令描述
FROM (必需的)引入使用的模型或者模型源文件
PARAMETER(参数)设置大模型的运行参数
TEMPLATE(提示词模板)用于大模型请求的prompt提示词模板
SYSTEM设置的大模型默认的系统消息
ADAPTER定义适用于模型的(Q)LoRA适配器
LICENSE指定license.
MESSAGE指定消息历史

(2)Modelfile样例文件

FROM ./codeqwen-1_5-7b-chat-q8_0.gguf

TEMPLATE """{{ if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{ if .Prompt }}<|im_start|>user
{{ .Prompt }}<|im_end|>
{{ end }}<|im_start|>assistant
{{ .Response }}<|im_end|>
"""
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"

3、创建模型

(1)创建模型命令

ollama create <your-model-name> -f <./Modelfile>

(2)创建模型示例

# 创建存储大模型源文件和modelfile文件的目录
sudo mkdir /home/llm
# 上传文件codeqwen-1_5-7b-chat-q8_0.gguf和modelfile-codeqwen.Modelfile到/home/llm;
# 进入工作目录
cd /home/llm
# 执行创建命令
ollama create codeqwen:7b -f ./modelfile-codeqwen.Modelfil
# 查看创建结果
ollama list

在这里插入图片描述

4、运行模型

(1)运行模型命令

ollama run <your-model-name>

(2)运行模型示例

# 运行步骤3创建的codeqwen:7b大模型
ollama run codeqwen:7b

# 退出命令
/bye

在这里插入图片描述

5、删除模型

(1)删除模型命令

ollama rm <your-model-name>

(2)删除模型示例

# 删除步骤3创建的codeqwen:7b大模型
ollama rm codeqwen:7b
```

(2)删除模型示例

# 删除步骤3创建的codeqwen:7b大模型
ollama rm codeqwen:7b

Linux内网离线安装ollama请参考:https://blog.csdn.net/u010197332/article/details/137604798

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值