Windows系统上通过Ollama本地部署DeepSeek模型(2025年最新版)

🌟 前言

随着大语言模型(LLM)的普及,越来越多用户希望在本地部署模型以保护隐私、提升效率。本文将手把手教你如何在 Windows 10/11系统 上通过 Ollama 工具安装并运行 DeepSeek R1 模型。


🛠️ 第一步:安装Ollama

1. 下载Ollama安装包

  • 官方地址https://ollama.com/download
  • 选择Windows版本:点击 “Download for Windows”,下载 OllamaSetup.exe(约745MB)。
  • 加速下载建议:若浏览器速度慢,复制链接到迅雷或IDM下载。。
    在这里插入图片描述

2. 安装Ollama

  • 默认安装路径:双击 OllamaSetup.exe,点击 Install,默认安装到 C:\Program Files\Ollama
  • 自定义安装路径
    1. 打开命令行(Win+R → 输入 cmd)。
    2. 输入命令:
      OllamaSetup.exe /DIR=D:\Ollama
      
    3. 确认路径后点击 Install
      在这里插入图片描述

3. 验证安装

  • 命令行验证
    ollama --version
    
    若输出类似 ollama version 0.1.34,则安装成功。
  • 图形化验证:右下角任务栏应出现 羊驼图标(若未显示,展开状态栏检查)。
    在这里插入图片描述

🔧 第二步:下载并运行DeepSeek模型

1. 选择模型版本

DeepSeek R1 提供多个版本,根据硬件配置选择:

模型版本参数量显存需求推荐配置
deepseek-r1:1.5b15亿4GB8GB内存 + 10GB磁盘
deepseek-r1:7b70亿8GB16GB内存 + 20GB磁盘
deepseek-r1:14b140亿12GB32GB内存 + 50GB磁盘

新手推荐:选择 deepseek-r1:1.5b 以降低硬件要求。
在这里插入图片描述

2. 下载模型

  • 命令行执行
    ollama run deepseek-r1:1.5b
    
  • 下载过程说明

自定义模型文件下载地址看 第四步

  • Ollama 会自动从远程仓库下载模型文件(约2-3GB),并解压到默认路径:C:\Users\<用户名>\.ollama\models
  • 下载中断处理:若下载失败,重复运行上述命令,Ollama 会自动续传。
    在这里插入图片描述

3. 验证模型安装

  • 查看已安装模型
    ollama list
    
    输出应包含 deepseek-r1:1.5b

🧪 第三步:使用DeepSeek模型

1. 命令行交互

  • 启动模型
    ollama run deepseek-r1:1.5b
    
  • 对话示例
    >>> 如何学习Python?
    
    模型会返回详细回答,首次响应约需3-5秒。
    在这里插入图片描述
    退出对话:Ctrl + d 或者 /bye

2. 通过API调用模型

  • REST API 示例
    curl http://localhost:11434/api/generate -d '{
      "model": "deepseek-r1:1.5b",
      "prompt": "如何学习Python?",
      "stream": false
    }'
    

🗂️ 第四步:更改模型存储路径(可选)

1. 设置环境变量

  • 操作步骤
    1. 右键 此电脑属性高级系统设置环境变量
    2. 系统变量 中点击 新建
      • 变量名OLLAMA_MODELS
      • 变量值E:\ollama\OllamaModels(自定义路径)。
    3. 重启电脑使设置生效。

2. 验证路径更改

  • 重新运行 ollama run deepseek-r1:1.5b,模型会下载到新路径。

📦 第五步:安装图形化界面(可选)

1. 安装Docker

  • 下载地址Docker Desktop
  • 安装步骤
    1. 启用 WSL 2Hyper-V(需管理员权限)。
    2. 安装完成后启动 Docker Desktop。

2. 部署Chatbox

  • 命令行执行
    docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
    
  • 访问地址http://localhost:8080

3. 部署Open-WebUI

  • 命令行执行
    docker run -d --name open-webui -p 3000:8080 -e OLLAMA_HOST=http://localhost:11434 open-webui/open-webui
    
  • 访问地址http://localhost:3000

⚠️ 常见问题与解决方案

1. 下载失败

  • 解决方法
    • 重复运行 ollama run deepseek-r1:1.5b
    • 更换 DNS(如 8.8.8.8)或使用代理。

2. 磁盘空间不足

  • 解决方法
    • 删除旧模型:
      ollama rm deepseek-r1:1.5b
      

3. 安全性建议

  • 本地部署:默认监听 http://localhost:11434,无需公网暴露。
  • 远程访问:若需开放,配置防火墙和身份验证(如 Nginx 反向代理)。

📚 附录:Ollama常用命令

命令描述
ollama serve启动 Ollama 服务
ollama create从 Modelfile 创建模型
ollama show显示模型信息
ollama run运行模型
ollama stop停止正在运行的模型
ollama pull拉取模型
ollama list列出所有已下载模型
ollama ps列出当前运行的模型
ollama cp复制模型
ollama rm删除模型
ollama help获取命令帮助

✅ 总结

通过本文的步骤,你可以在本地快速部署 DeepSeek 模型并实现离线使用。以下是关键点总结:

  1. 核心流程:安装 Ollama → 下载 DeepSeek 模型 → 使用命令行或 API 交互。
  2. 推荐配置:选择 1.5b 模型以降低硬件需求。
  3. 扩展功能:通过 Docker 部署图形化界面(如 Chatbox 或 Open-WebUI)。
<think>好的,我现在需要回答用户关于如何在本地环境中使用Ollama部署DeepSeek模型的问题。首先,我应该回顾用户提供的引用内容,确保信息准确。 根据引用[1],Ollama支持在ollama.com/search获取模型列表,例如deepseek-r1。引用[2]提到了创建存储目录和设置系统变量OLLAMA_MODELS的步骤。我需要将这些步骤整合成一个清晰的流程。 接下来,我需要确保步骤正确无误。首先安装Ollama,然后配置存储路径,接着拉取模型并运行。可能需要注意操作系统的差异,比如Windows和macOS/Linux的不同命令。同时,验证步骤是否完整,比如检查模型是否成功运行。 用户可能需要常见问题解答,比如路径无效或模型无法下载的情况。我应该考虑这些潜在问题,并提供解决方法。此外,引用相关来源时要正确标注,例如引用[1]和引用[2]。 最后,生成相关问题,帮助用户深入了解Ollama的其他功能,比如多模型运行、性能优化等。确保问题覆盖用户可能感兴趣的扩展话题。</think>### 如何在本地环境部署 DeepSeek 模型Ollama) #### 1. 安装 Ollama 框架 - 访问 [Ollama 官网](https://ollama.ai/) 下载对应操作系统的安装包。 - 支持 Windows/macOS/Linux 系统,安装后确保命令行工具 `ollama` 可用。 #### 2. 配置模型存储路径(可选但推荐) - **创建存储目录**:例如在 Windows 下新建 `E:\software\programming\deepseek\Ollama\models` [^2]。 - **设置系统变量**: - 变量名:`OLLAMA_MODELS` - 变量值:指向上述目录(如 `E:\software\programming\deepseek\Ollama\models`)。 #### 3. 拉取并运行 DeepSeek 模型 - 执行命令拉取模型(以 `deepseek-r1` 为例): ```bash ollama pull deepseek-r1 ``` - 启动模型服务: ```bash ollama run deepseek-r1 ``` #### 4. 验证部署 - 输入测试问题(如“如何用Python实现快速排序?”),观察模型是否生成合理响应。 - 若提示模型未找到,检查网络连接或模型名称拼写。 #### 常见问题解决 - **路径无效**:确保系统变量 `OLLAMA_MODELS` 配置正确且目录可写入。 - **模型下载失败**:尝试更换网络环境或使用镜像源。 - **内存不足**:DeepSeek 模型需要较高内存,建议预留至少 16GB RAM。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值