deep seek本地部署教程超详细

前言

DeepSeek 作为国产开源大模型,近期因在线服务压力过大,本地部署需求激增。你是不是也遇到过网络繁忙请稍后再试的情况,但是进行本地部署就不会出现这个情况,同时还可以避免信息泄露。接下来将手把手教你如何进行deep seek本地部署

一、下载软件

打开官网https://ollama.com/  进行下载ollama软件

 选择你的操作系统进行下载,此处默认使用Windows进行下载

 下载完成后默认下一步默认安装即可,这边已经安装过就不演示了

 

安装完成后会在你的系统托盘里找到,它没有主界面,出现这个图标即可

二、验证是否成功安装

按 win+r 输入cmd 回车 打开黑窗口后输入  ollama -v  出现版本号即证明成功安装

 三、进行部署

如下图所示跟图操作即可

 选择你要下载的版本,根据电脑配置进行选择,如下图所示

这边以7b作为演示,如何部署运行

 选择好版本后复制这串代码(红框所示)ollama run deepseek-r1:7b

 

 确保你的ollama已经处于运行状态(它没有主界面),接下来还是按 win+r 输入cmd 回车 打开黑窗口,输入刚刚复制的代码后回车(第一次输入后会自动开始下载相关资源,这时候不用管,等待下载完成即可),下载完成后便是下图界面,届时你就可以正常进行对话了

 退出输入  /bye  或直接关闭黑窗口即可,至此本地部署就已经完成了

四、相关代码

输入命令/bye可以退出对话

 输入神秘代码再次进入

 输入命令ollama list可以查看下载好的模型

 后记

   到此为止你的电脑现在就有一个只服务与你的deep seek了,如有疑问也可私信博主帮您解答;如有帮助还请多多点赞,关注。

### Deep Seek 本地部署详细教程 #### 环境准备 ##### 硬件需求 最低配置为 CPU 支持 AVX2 指令集,配备 16 GB 内存以及至少 30 GB 存储空间。为了更佳的性能体验,推荐使用 NVIDIA GPU (RTX 3090 或更新型号),搭配 32 GB RAM 和不少于 50 GB 的硬盘容量[^1]。 ##### 软件依赖 操作系统可以是 Windows、macOS 或 Linux 中的一种;对于打算利用 Open Web UI 功能的情况,则还需事先安装 Docker 工具。 #### 安装 Ollama 及模型获取 通过访问官方网址来下载并设置 ollama 应用程序,默认情况下该应用程序会被放置于 C:\Users\用户名\AppData\Local\Programs\Ollama 文件路径下(注意 AppData 是被隐藏起来的文件夹)。接着,在相同网站上选取预训练好的模型版本——例如默认选项 "7b" —— 并执行命令 `ollama run deepseek-r1` 来启动模型加载过程。成功之后,所下载的数据将会存储至 C:\Users\用户名\.ollama\models\blobs 这个位置[^2]。 #### 配置与测试 考虑到实际应用中的效率问题,不同规模大小的模型会对计算机资源有不同的消耗程度。比如 i7-12700F 加 RTX4060Ti 16G 组合能够较为顺畅地处理较小尺寸如 7B 参数量级别的模型实例,但对于更大参数量则可能出现响应速度下降的现象。 #### 数据安全保障措施 出于安全性考虑,建议采用虚拟机的方式来进行操作,特别是涉及到敏感资料处理的时候。这不仅有助于隔离外部网络风险,也能更好地控制内部计算环境的安全边界[^4]。 ```bash # 示例:创建基于 Ubuntu 的虚拟机用于 DeepSeek 部署前准备工作 vagrant init ubuntu/bionic64 vagrant up ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值