Ollama内网离线部署大模型
本文以codeqwen:7b大模型为例编写部署步骤
1、大模型源文件准备
(1)国内大模型源文件下载地址https://modelscope.cn/models
(2)国外大模型源文件下载地址https://huggingface.co/models
2、准备Modelfile文件
(1)Modelfile参数说明
命令 | 描述 |
---|---|
FROM (必需的) |
引入使用的模型或者模型源文件 |
PARAMETER(参数) |
设置大模型的运行参数 |
TEMPLATE(提示词模板) |
用于大模型请求的prompt提示词模板 |
SYSTEM |
设置的大模型默认的系统消息 |
ADAPTER |
定义适用于模型的(Q)LoRA适配器 |
LICENSE |
指定license. |
MESSAGE |
指定消息历史 |
(2)Modelfile样例文件
FROM ./codeqwen-1_5-7b-chat-q8_0.gguf
TEMPLATE &