也可直接查阅官方文档自行部署:https://github.com/ollama/ollama
一、什么情况下,适合把大模型部署在自己电脑上?
平时用AI也不多,不推荐搞私有化部署。有更简单的方法,可以使用AI。
想用DeepSeek,可以直接在手机的应用商城,下载DeepSeek的手机APP。
或者用浏览器,搜索DeepSeek的网页版。这样是最简单的,并且背后的AI都是一样的。
私有部署适合以下情况:
① 电脑配置较高,有独立显卡。
② 有私密的数据需要处理,担心泄密。
③ 需要和本地工作流结合,处理高频任务或复杂任务。
④ 日常使用量大,调用API需要收费,私有部署能省钱。
⑤ 想要在开源模型基础上,做个性化的定制版本。
二、大模型私有部署步骤
第一步:安装ollama
私有部署首先要安装ollama,你可以把它理解为一个桌子,有了桌子才能把AI放上去。
1. 打开ollama官网,点击中间的Download。
ollama官网:https://ollama.com/
2. 根据自己的电脑类型,选择不同版本。
苹果电脑选最左边,部署到Linux上选中间,Windows系统选最右边(红色框),之后点击Download。
3. 下载后,点击安装。
如果桌面出现了ollama图标,说明软件安装成功。图标就是下图的羊驼。
第二步:选择要安装的模型
1. 还是在刚刚的ollama官网,点击左上角的“Models”选项。
2. 点击选择deepseek-r1
3. 选择不同参数的模型
这里的数字越大,参数越多,性能越强,1.5b代表模型具备15亿参数。
比如你的电脑16G显存,运行14b参数模型时,需要大约11.5G显存。如果是1.5b版本,2G以下的显存就可以运行,甚至不需要独立显卡,核显就可以。如果是32b参数的,就需要32G显存啦,可以根据自己的电脑性能选择。
下面使用1.5b参数做示范。
4. 复制命令
选择1.5b参数后,复制红框中的命令“ollama run deepseek-r1:1.5b”。
第三步,安装模型
1. 打开命令行
按下键盘上的Win+R键,打开cmd命令行
2. 输入命令
在打开的命令行里,输入上面复制的命令“ollama run deepseek-r1:1.5b”。
…等待下载安装完成即可
3. 与模型对话
成功后,就可以与模型对话啦。
此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。
第四步,后续运行模型
首先打开ollama。启动了ollama后,再通过cmd命令行,和大模型聊天。
1. 通过命令行和大模型聊天
Win+R键,打开cmd命令行
输入“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。
三、安装Open-WebUI(可以不看)
注意:前面的步骤,已经完整了。Open-WebUI只是让交互界面更好看,更易上手,也可以不必安装。
如果需要安装,可参考步骤如下:
1、使用docker安装
1. 首先安装docker
打开docker官网:https://www.docker.com/
根据你的电脑系统,下载docker桌面版,并安装运行。
安装完成后,需要重新启动电脑,才能正常使用docker。重新启动后,如果你的桌面上出现了docker的图标,就表示安装成功了。
3. 安装Open-WebUI
打开github
https://github.com/open-webui/open-webui,并复制红框中的命令。
按照上面提到的步骤,打开命令行,输入复制的命令,等待安装完成。
4. 运行Open-WebUI
双击docker的桌面图标,打开软件。点击红框端口,即可运行Open-WebUI。
初次访问时,需要注册一个账号。这些信息会储存在你的电脑里。
5. 开始对话
在界面左上角,选择你的模型,就可以开始对话啦。
2、使用Python pip安装(建议使用pip安装)
参考部署文档:https://github.com/open-webui/open-webui
可以使用 Python 包安装程序 pip 安装 Open WebUI。在继续操作之前,确保使用的是Python 3.11版本,否则会报错。
安装 Open WebUI:打开cmd终端并运行以下命令来安装 Open WebUI:
pip install open-webui
运行 Open WebUI:安装后,您可以通过执行以下命令启动 Open WebUI:
open-webui serve
这将启动 Open WebUI 服务器,可以通过http://localhost:8080访问它。
同样初次访问时,创建一个管理员账号即可
四、其它问题
如何查看我电脑上装了多少个模型?
打开命令行,输入:ollama list
如何删除模型?
在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。
ollama还有其它功能吗?
命令行输入ollama -h或ollama help,展示出ollama的其它功能。
比如:输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。