本地部署deepseek

一、安装ollama

官网地址:https://ollama.com/

下载后点击下一步、下一步,完成安装。

打开CMD。验证安装情况

二、安装部署Deepseek

官网地址:https://ollama.com/library/deepseek-r1:7b

根据自己电脑显卡配置选择对应版本

经测试1.5b,集成显卡首选,独显可以使用7B,8B,4070以上可以用14B。

返回CMD对话框,粘贴下载命令,等待完成,网络畅通情况下,大约40分钟。

安装完成之后,可以进行使用了

经过测试,速度还是很快。

三、可视化交互 chatboxai

登录官网,https://chatboxai.app/zh,经测试外网环境下,下载速度很快,内网下载得一天。。。

点击下一步、下一步,完成安装,如图所示

选择模型提供方为OLLAMAAPI,模型下拉选择你安装的DEEPSEEK版本

保存后使用。

感觉1.5b已经够用,nice~

### 如何在本地部署 DeepSeek 为了提供详细的指导,在本地环境中部署 DeepSeek 需要遵循一系列配置和安装过程。虽然具体细节可能依赖于特定版本DeepSeek 和操作系统环境,下面给出了一般性的步骤说明。 #### 准备工作 确保计算机上已经安装了 Docker 及其相关组件,因为大多数现代机器学习平台都基于容器化技术构建[^1]。对于 Linux 用户来说,还需要确认内核参数设置正确以支持必要的功能特性。 #### 安装 Minikube 并启动单节点集群 Minikube 是一个用于创建轻量级 Kubernetes 单节点集群工具,非常适合开发测试用途。通过命令 `$ minikube start` 来初始化一个新的 K8s 实例;如果希望打开 Web UI 进行可视化管理,则可以执行 `minikube dashboard` 命令来访问默认浏览器中的仪表板界面[^3]。 #### 设置存储解决方案 考虑到 DeepSeek 的数据持久性和性能需求,建议采用分布式文件系统作为后端存储方案之一。例如 Ceph 提供了一个强大的对象、块以及文件系统的组合服务。针对 Debian 或 Ubuntu 发行版,可以通过添加官方源并利用包管理器完成 ceph-deploy 工具链的获取与安装操作[^2]。 #### 获取 DeepSeek 应用镜像 联系供应商或者查阅官方文档找到合适的 Helm Chart 资源库地址,从中拉取最新稳定版的应用程序映像到本地仓库中待后续部署使用。 #### 编写自定义资源配置清单 根据实际业务场景调整 YAML 文件里的各项参数选项,比如副本数量、资源请求限额等字段值,从而更好地适配目标硬件条件下的运行状况。 #### 执行应用发布流程 最后一步就是运用 kubectl CLI 向 API Server 发送指令提交之前准备好的描述性模板,触发自动化调度机制使得各个 Pod 成功上线至指定命名空间之下正常运作起来。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值