【Ubuntu】本地部署Deep Seek(深度求索)大模型的保姆级教程 | 详细教程

杭州深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,DeepSeek是一家专注通用人工智能(AGI)中国科技公司,主攻大模型研发与应用,经营范围包括技术服务、技术开发、软件开发等。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费使用。支持联网搜索深度思考模式。

总结AI + 国产 + 免费 + 开源 + 强大

目录

1 环境要求

■ OS

2 安装Ollama

①安装

安装方式一

安装方式二

安装方式三

安装方式四

②验证

3 下载并部署DeepSeek模型

①启动Ollama

②下载模型

③访问

4 可视化

①下载

②添加执行权限

③运行

④设置

⑤交互



随着AI的飞速发展,本地部署大模型的需求也日益增加。DeepSeek大模型作为一款开源性能强大的大语言模型,提供了灵活的本地部署方案。Deep Seek大模型的本地部署不仅提升了数据安全隐私保护,还优化了性能降低了长期成本,并提供了更高的自主性和法规遵从性。对于寻求更高控制权、更低延迟和更安全数据处理的企业和组织来说,本地部署是一个极具吸引力的选择。然而,这也要求组织具备相应的IT基础设施和运维能力,以确保部署的顺利进行和后续的维护。

综上,本地部署具有以下的优点

 数据安全与隐私保护

 减少延迟和提高响应速度

 降低成本

 自主可控

 法规遵从

 高效利用资源

以下是详细的DeepSeek大模型本地部署的方法。

首先,需要说的是,小参数版本模型效果一般,如果真正落地部署应用的话,建议使用满血版本模型(671B版本)

接下来,开始动手部署吧。

1 环境要求

 OS

操作系统:Windows、macOS或Linux

2 安装Ollama

Ollama是一个开源的大型语言模型(LLM)推理服务器,为用户提供了灵活、安全和高性能的语言模型推理解决方案。

Ollama的主要特点是它能够运行多种类型的大型语言模型,包括但不限于Alpaca、Llama、Falcon、Mistral等,而无需将模型上传至服务器。这意味着用户可以直接在本地或私有云环境中运行这些模型避免了数据传输带来的延迟和隐私问题

①安装

安装方式一

访问官网Ollama,点击“Download”按钮。

全自动化脚本,要求网络状态良好。使用如下命令安装。

下载与安装

curl -fsSL https://ollama.com/install.sh | sh

安装方式二

分步安装,命令如下。

单独下载脚本

curl -fsSL https://ollama.com/install.sh > install.sh

添加执行权限

chmod +x install.sh

手动执行脚本

./install.sh

【报错】curl: (92) HTTP/2 stream 1 was not closed cleanly before end of the underlying stream                                            

【报错】curl: (35) OpenSSL SSL_connect: SSL_ERROR_SYSCALL in connection to github.com:443

上述报错的处理方法可参考:【Ubuntu】安装和使用Ollama的报错处理集合-CSDN博客

安装方式三

通过lscpu查看架构。选择对应的安装包。

下载

打开https://github.com/ollama/ollama/releases/,下载ollama-linux-amd64.tgz到本地。

解压

sudo tar -zxf ollama-linux-amd64.tgz -C /usr/local

解压成功后在/usr/local中打开bin和lib文件夹会出现ollama相关的文件

添加执行权限

sudo chmod +x /usr/local/bin/ollama 

安装方式四

安装ModelScope

pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

下载

modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux --revision v0.5.8

安装ollama

# 运行ollama安装脚本

cd ollama-linux

sudo chmod 777 ./ollama-modelscope-install.sh

./ollama-modelscope-install.sh

②验证

安装完成后,在终端输入以下命令,检查Ollama版本。

ollama --version

如果能够正确输出版本号,则说明安装成功。

综上,建议使用安装方法四进行安装。

3 下载并部署DeepSeek模型

Ollama支持多种DeepSeek模型的版本,用户可以根据硬件配置选择合适的模型。

 入门级:1.5B版本,适合进行初步测试。

 :7B或8B版本,适合大多数消费级GPU。

 高性能:14B、32B或70B版本,适合高端GPU。

注意:根据硬件配置选择合适的模型版本。较小的模型在标准硬件上表现良好,而较大的模型需要更强大的GPU支持;确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。

①启动Ollama

在终端输入以下命令启动Ollama服务。

ollama serve

# 或者

ollama start

②下载模型

Ollama官网搜索deepseek-r1,查看相关模型。

下载模型。

ollama pull deepseek-r1:1.5b

下载其他的模型。

ollama pull deepseek-r1:7b

ollama pull deepseek-r1:8b

ollama pull deepseek-r1:14b

ollama pull deepseek-r1:32b

ollama pull deepseek-r1:70b

ollama pull deepseek-r1:671b

另起一个窗口,在终端输入以下命令下载并运行DeepSeek模型。

ollama run deepseek-r1:1.5b

通过ollama list命令可查看已经部署的模型。

通过ollama rm deepseek-r1:1.5b命令可以删除指定的模型。

③访问

通过访问 http://localhost:11434 看到Ollama is running信息。

4 可视化

部署chatbox可以实现UI界面的本地大模型交互。

可视化工具Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

①下载

点击上图中的下载按钮,下载Chatbox-1.9.8-x86_64.AppImage到本地。

②添加执行权限

cd 到Chatbox-1.9.8-x86_64.AppImage所在路径。

chmod +x Chatbox-1.9.8-x86_64.AppImage

③运行

使用如下命令运行Chatbox。

./Chatbox-1.9.8-x86_64.AppImage

运行成功后,界面如下图。

④设置

点击保存即可。

⑤交互

设置完成后,就可以进行正常的交互了。

如果在部署过程中遇到问题,在评论区留言说明,可以一起解决哈。

如果部署成功了,欢迎留言支持哈。

至此,本文的内容就结束了。

### DeepSeekUbuntu上的本地部署 #### 准备工作 为了顺利地完成DeepSeek本地部署,确保操作系统为Ubuntu 22.04 LTS版本。对于硬件配置方面,建议至少拥有一张具备较高显存容量(如24GB)的GPU来支持模型运行的需求[^4]。 #### Docker环境搭建 采用Docker容器化技术来进行DeepSeek的应用部署是一种高效的方式。通过这种方式不仅可以简化依赖项管理还能提高跨平台兼容性。首先需确认已正确安装并启动了Docker服务,在终端输入`docker --version`命令验证安装情况;如果尚未安装,则依照官方文档指导完成相应操作[^1]。 #### 获取镜像文件 利用Docker Hub或其他可信源获取预先构建好的DeepSeek镜像。这一步骤可以通过执行如下指令实现: ```bash docker pull deepseek_image_name:tag ``` 请注意替换上述代码中的`deepseek_image_name:tag`部分为实际使用的镜像名称及其标签信息。 #### 启动容器实例 创建一个新的容器实例并将主机端口映射至容器内部的服务端口以便于外部访问。假设目标应用监听的是8080端口,那么完整的启动语句可能形似这样: ```bash docker run -d -p host_port:container_port deepseek_image_name:tag ``` 这里同样要记得调整变量值以匹配具体场景下的设置需求。 #### 访问测试 一旦成功启用了包含DeepSeek应用程序在内的Docker容器之后,就可以尝试打开浏览器并通过指定IP地址加上之前设定过的对外开放端口号组合形成的URL路径对其进行初步的功能检验了。例如http://localhost:host_port/。 #### 使用VLLM框架作为替代方案 除了基于Docker的方法之外,还有其他途径可供选择用于快速建立属于自己的私有版DeepSeek服务平台。比如借助Python虚拟环境配合Conda工具链再加上专门针对大型语言模型优化设计而成的高性能推理引擎——vLLM库共同协作达成目的。先新建一个名为`vllm`的新环境,并激活它,接着按照提示逐步加载必要的软件包直至最终能够流畅调用API接口为止。
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jackilina_Stone

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值