deepseek本地化部署

概述

随着人工智能技术的快速发展,本地化部署大模型的需求日益增长。DeepSeek 作为一款开源且性能卓越的大语言模型,提供了灵活的本地部署方案,使用户能够在本地环境中高效运行模型,同时充分保障数据隐私。本文将详细介绍 DeepSeek 的本地化部署流程。

环境准备

(一)硬件需求
  • 最低配置

    • 处理器:支持AVX2指令集的CPU

    • 内存:16GB

    • 存储空间:30GB

  • 推荐配置

    • 显卡:NVIDIA GPU(RTX 3090或更高)

    • 内存:32GB

    • 存储空间:50GB

(二)软件依赖
  • 操作系统
    支持Windows、macOS或Linux系统。

  • Docker
    如需使用Open Web UI,需提前安装Docker。(通过其他方式也可安装)

ollama安装

Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。以下是安装Ollama的步骤:

访问官网下载指定版本的安装包:

官网地址:

Download Ollama on Linux

我本地为乌班图系统,所以下载命令如下:

curl -fsSL https://ollama.com/install.sh | sh

安装完成通过命令检测是否安装成功

ollama --version

如果输出版本号(例如ollama version is 0.5.6),则说明安装成功。

deepseek下载

选择模型版本
  • 入门级:1.5B版本,适合初步测试。
  • 中端:7B或8B版本,适合大多数消费级GPU。
  • 高性能:14B、32B或70B版本,适合高端GPU。

打开终端,输入以下命令下载并运行DeepSeek模型。例如,下载7B版本的命令为:

ollama run deepseek-r1:7b

该命令为运行模型的命令,第一次运行时模型不存在会自动下载,后续可通过该命令直接运行。

启动Ollama服务

在终端运行以下命令启动Ollama服务:

ollama serve

如果要通过ip端口访问该服务,需要修改配置文件(root)/etc/systemd/system/ollama.service

增加一行配置

Environment="OLLAMA_HOST=0.0.0.0:11434"

然后重新加载配置并启动

systemctl daemon-reload

systemctl restart ollama

重启ollama后出现如下界面则成功

到目前为止,deepseek已经安装完成,能够完成基本的问答交互。

Open-webui安装(可视化)

为了更直观地与DeepSeek模型进行交互,可以使用Open Web UI。以下是安装和使用步骤:

创建pyhton环境

conda create -n open-webui python=3.11

conda activate open-webui

安装Open-WebUI项目

pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

开启服务

open-webui serve

然后通过浏览器打开 ip:8080进行账号注册,注册完成后可直接登录。

问题

登录时显示成功但是长时间没反应,页面白板,一段时间后能正常访问,目前定位为登录时会先通过openai验证用户有效性,由于网络不通,超时后会通过本地验证用户。目前已处理。

这个其实是因为默认对接了open-ai的Api,但是没有科学上网的话,会一直等待响应,只需要关闭即可。

访问入口:点击头像 -->管理员面板 -->设置 -->外部连接-> openAi API

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

不加班程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值