把Deepseek部署到电脑上

也可直接查阅官方文档自行部署https://github.com/ollama/ollama

一、什么情况下,适合把大模型部署在自己电脑上?

平时用AI也不多,不推荐搞私有化部署。有更简单的方法,可以使用AI。

想用DeepSeek,可以直接在手机的应用商城,下载DeepSeek的手机APP。

或者用浏览器,搜索DeepSeek的网页版。这样是最简单的,并且背后的AI都是一样的。

私有部署适合以下情况:

① 电脑配置较高,有独立显卡。

② 有私密的数据需要处理,担心泄密。

③ 需要和本地工作流结合,处理高频任务或复杂任务。

④ 日常使用量大,调用API需要收费,私有部署能省钱。

⑤ 想要在开源模型基础上,做个性化的定制版本。

二、大模型私有部署步骤

第一步:安装ollama

私有部署首先要安装ollama,你可以把它理解为一个桌子,有了桌子才能把AI放上去。

1. 打开ollama官网,点击中间的Download。

ollama官网:https://ollama.com/

2. 根据自己的电脑类型,选择不同版本。

苹果电脑选最左边,部署到Linux上选中间,Windows系统选最右边(红色框),之后点击Download。

3. 下载后,点击安装。

如果桌面出现了ollama图标,说明软件安装成功。图标就是下图的羊驼。

第二步:选择要安装的模型

1. 还是在刚刚的ollama官网,点击左上角的“Models”选项。

2. 点击选择deepseek-r1

3. 选择不同参数的模型

这里的数字越大,参数越多,性能越强,1.5b代表模型具备15亿参数。

比如你的电脑16G显存,运行14b参数模型时,需要大约11.5G显存。如果是1.5b版本,2G以下的显存就可以运行,甚至不需要独立显卡,核显就可以。如果是32b参数的,就需要32G显存啦,可以根据自己的电脑性能选择。

下面使用1.5b参数做示范。

4. 复制命令

选择1.5b参数后,复制红框中的命令“ollama run deepseek-r1:1.5b”。

第三步,安装模型

1. 打开命令行

按下键盘上的Win+R键,打开cmd命令行

2. 输入命令

在打开的命令行里,输入上面复制的命令“ollama run deepseek-r1:1.5b”。

…等待下载安装完成即可

3. 与模型对话

成功后,就可以与模型对话啦。

此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。

第四步,后续运行模型

首先打开ollama。启动了ollama后,再通过cmd命令行,和大模型聊天。

1. 通过命令行和大模型聊天

Win+R键,打开cmd命令行

输入“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。

三、安装Open-WebUI(可以不看)

注意:前面的步骤,已经完整了。Open-WebUI只是让交互界面更好看,更易上手,也可以不必安装。

如果需要安装,可参考步骤如下:

1、使用docker安装

1. 首先安装docker

打开docker官网:https://www.docker.com/

根据你的电脑系统,下载docker桌面版,并安装运行。

安装完成后,需要重新启动电脑,才能正常使用docker。重新启动后,如果你的桌面上出现了docker的图标,就表示安装成功了。

3. 安装Open-WebUI

打开github

https://github.com/open-webui/open-webui,并复制红框中的命令。

按照上面提到的步骤,打开命令行,输入复制的命令,等待安装完成。

4. 运行Open-WebUI

双击docker的桌面图标,打开软件。点击红框端口,即可运行Open-WebUI。

初次访问时,需要注册一个账号。这些信息会储存在你的电脑里。

5. 开始对话

在界面左上角,选择你的模型,就可以开始对话啦。

2、使用Python pip安装(建议使用pip安装)

参考部署文档:https://github.com/open-webui/open-webui

可以使用 Python 包安装程序 pip 安装 Open WebUI。在继续操作之前,确保使用的是Python 3.11版本,否则会报错。

安装 Open WebUI:打开cmd终端并运行以下命令来安装 Open WebUI:

pip install open-webui

运行 Open WebUI:安装后,您可以通过执行以下命令启动 Open WebUI:

open-webui serve

这将启动 Open WebUI 服务器,可以通过http://localhost:8080访问它。

同样初次访问时,创建一个管理员账号即可

四、其它问题

如何查看我电脑上装了多少个模型?

打开命令行,输入:ollama list

如何删除模型?

在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。

ollama还有其它功能吗?

命令行输入ollama -h或ollama help,展示出ollama的其它功能。

比如:输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Super菜小徐

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值