说明:本次部署涉及如下内容的安装部署(均为开源)本次部署所在环境均为window。网上很多文章均未完整介绍安装过程。所以自己写了一份
安装列表 | 描述 |
Qwen2 | 阿里通义千问2大模型 |
Ollama | 服务器框架软件,用来获取发布大模型 |
基于gis数据的高敏感高保密性要求,相信gis的小伙伴都有如下的需求:在内网,无外网环境下,部署自己的私有化大模型。
安装完成后,可以通过第二篇文章进行安装客户端。实现chatGPT式对话。
1.环境背景:
没有Linux环境,只是windows
无外网,内网环境
2.安装部署过程:
一、Ollama下载安装
进入官网:github.com
点击Download
选择Windows,点击Download for Windows (Preview)
默认安装。
安装完成以后在win+r,输入cmd,弹出dos命令界面。输入ollama。
右侧状态栏出来小绵羊就算成功了。
二、创建环境变量
OLLAMA_MODELS,随意指定变量值,如图所示:
OLLAMA_MODELS |
环境变量可以随后再加都可以。
三、下载模型的地址
(1)国内大模型源文件下载地址:https://modelscope.cn/models
(2)国外大模型源文件下载地址:https://huggingface.co/models
这里需要一点小magic才能下来哦。
三、大模型下载安装
1.我选择的阿里qwen2,下载Qwen2
我这是离线部署,只能把几个g的模型下载到本地,然后安装,如果不是离线,一个“ollama run **模型” 命令就搞定了,别在我这个文章晃了。
进入魔塔社区下载:通义千问2-7B-Instruct-GGUF · 模型库 (modelscope.cn)
Qwen2是刚出来的号称国内最强开源大模型。之前还有1.5的,肯定要选2的吧,选择instruct就是内含训练好的模型。不带的需要自己训练。 GGUF文件就是模型文件。有0.5B,7B,14B……72B,前面的数字意义是从0.5亿到720亿参数的指令调优参数,参数越大越费显存,数字越大性能越强。
废话一下:传说又有2.5更牛,通义千问2.5是一个集成了通义大模型全栈能力的全能AI助手。它支持多种文件格式进行处理,包括PDF、Word、Excel等,且在文档处理方面,支持单次处理最长1000万字、100个文档。此外,于2024年,该APP更名为“通义APP”,其基模的性能可与GPT-4 Turbo相媲美。
模型可以去ollama gallary里面选择支持哪些模型都可以自己去选。
在下面列表按照自己的机器内存选一个合适自己的,选好以后,在右侧“下载”下载到本地就行,不用注册。怎么选呢?前面tab页有“模型介绍”可以翻过去查一下。
前面可以看模型介绍:
先在最下面点击效率评估,看下各个模型占的显存,选择适合自己的,比如我的显卡内存是8g显存,我选择的模型就是Qwen2-7B-Instruct GPTQ-Int4
2、准备Modelfile文件
(1)Modelfile参数说明
命令 | 描述 |
---|---|
FROM (必需的) | 引入使用的模型或者模型源文件 |
新建一个txt文件,改名成modelfile,去掉扩展名。在里面贴上这么一句
FROM ./Qwen2-7B-Instruct GPTQ-Int4 |
新建一个文件夹叫qwenmodel,把模型和modelfile都放进去
(2)执行命令
ollama create qwen2 -f Modelfile |
等待差不多10分钟,出现success表示成功。
3.运行安装qwen2模型
进到cmd命令下面。
输入运行ollama(确保ollama运行的,已经有小绵羊就不用这步了)
ollama |
输入ollama list查看大模型列表:
ollama list |
输入命令:
ollama run qwenmodel |
输入ollama run 模型名称我这里装了两个,直接运行启动一个就行,ollama run+模型名称就从服务器端,把大模型启动起来了。这里犯了错,搞了好久才明白,如果下次开机还行用模型,直接在cmd命令页面下,使用命令“ollama run 模型名”就可以启动了,跟tomcat启动一个道理。
看到这里就成功了。
安装完成以后,下次还想调出来用,直接输入命令:
ollama run 模型名称 |
名称忘记了,用ollama list看下列表名称,前面的就是名称
使用ollama ps查看现在运行的大模型是谁
不想要这个模型,就ollama rm+ 模型名,卸载掉这个大模型