1、Deepseek 简介DeepSeek 是杭州深度求索人工智能基础技术研究有限公司 (成立于2023年7月17日) 研发的推理模型,该模型采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务。2025年1月20日,DeepSeek 正式发布 DeepSeek-R1 模型,并同步开源模型权重。在部署 DeepSeek 之前,需要安装 Ollama , Ollama 是大型语言模型框架,可以理解为AI模型的宿主,如果需要美观的 UI 界面,需要安装其他应用配合,本教程我们通过部署 OpenWebUI 应用来运行 DeepSeek-R1 模型。 Open WebUI 简介 是一款可扩展的、功能丰富的用户友好型自托管 Web 界面,旨在完全离线运行。它支持包括 Ollama 和与 OpenAl 兼容的 API 在内的多种 LLM 运行器。 Open WebUI 的主要特点 轻松设置:支持 Docker 和 Kubernetes 安装,提供便捷的映像管理。 API 集成:兼容 Ollama 和 OpenAI API,自定义 API URL,适配多个 LLM 服务如 LMStudio 和 OpenRouter。更多详情请查阅 Open WebUI 官方文档。 2、使用 Docker Compose 部署 OpenWebUI 容器(集成 Ollama)在 UGOS Pro 系统上,推荐使用项目 Docker Compose 快速部署容器,适合需同时管理多个容器的场景,这种方法简化了容器的部署与管理工作。以下是使用 Docker Compose 部署 OpenWebUI 的详细步骤。 2.1 进入 Docker 项目界面在 UGOS Pro 系统中,打开 Docker 应用,点击【项目】 > 【创建】,启动项目创建向导。 2.2 配置 Docker Compose 文件在项目创建向导中,上传以下 OpenWebUI 的 Docker Compose 配置文件: version: '3.8' 2.3 参数说明
注意: ● 表示当前 Docker Compose 文件所在的目录; ● 冒号前是 NAS 的存储路径,冒号后是容器内的映射路径。 2.4 部署说明● 镜像来源:使用 镜像,该镜像已集成了 OpenWebUI 和 Ollama,因此无需单独运行 Ollama 服务,系统将自动完成启动与集成。 ● 端口设置:OpenWebUI 默认端口为 8080,但可通过 参数调整。本文将其映射到 3000 端口,访问地址为 。Ollama 的默认端口为 11434,但无需暴露,因为镜像内部已完成对接,OpenWebUI 可直接调用 Ollama 服务。 相关阅读 【FAQ】如何在 Docker Compose 配置文件中正确表示 volumes 挂载路径? 2.5 部署项目上传配置文件后,点击【立即部署】,系统会自动拉取镜像并启动容器。 完整教程来源绿联NAS官网:在绿联NAS私有云上本地化部署DeepSeek-R1大语言模型教程 |
|