DeepSeek-R1个人和企业本地快速部署手册(可商用)

DeepSeek-R1已经发布超过一周,我也第一时间发布了关于基于vLLM部署DeepSeek-R1以及DeepSeek-R1-Distill-Qwen-32B的相关文章。我的文章主要介绍了在构建企业RAG系统时,如何将DeepSeek-R1作为大模型模块进行部署,企业在业务发展中使用这一方案完全足够。

然而,我发现将AI集成到个人设备、甚至口袋的需求正在迅速增长。因此,除了编写DeepSeek-R1操作手册外,这几天我还深入探索了不同参数模型的部署方式,总结出一套适合个人与企业同时使用的部署方案。

关于基于DeepSeek-R1蒸馏的六款子模型是否适合个人部署,我特别关注了其中一些模型文件非常庞大的版本,比如DeepSeek-R1-Distill-Qwen-32B和DeepSeek-R1-Distill-Llama-70B。为此,我专门向DeepSeek进行了咨询。

我的提问是:

个人部署DeepSeek-R1-Distill-Qwen-32B合适吗?如果你觉得合适,你能给出一个特别特别的原因吗?使用大白话回答

DeepSeek的回答:

合适! 但有个特别特别简单的原因:这模型是个“学霸精简版”——就像你让一个考满分的学霸把课本重点全总结成小抄,虽然它脑子还是很大(32B参数),但运行起来比原版省劲,适合个人用电脑硬刚,勉强能跑起来!(当然,显卡最好是3090/4090级别,否则还是卡成PPT)

行吧,那我们今天就来讲讲个人部署DeepSeek-R1蒸馏模型的操作方法。

了解模型的大小

DeepSeek-R1模型参数:671B(6710亿),模型大小:约720G。

DeepSeek-R1-Distill-Qwen-1.5B模型参数1.5B(15亿),模型大小:约4G

DeepSeek-R1-Distill-Qwen-7B模型参数7B (70亿),模型大小:约15G

DeepSeek-R1-Distill-Llama-8B模型参数8B(80亿),模型大小:约16G

DeepSeek-R1-Distill-Qwen-14B模型参数14B(140亿),模型大小:约30G

DeepSeek-R1-Distill-Qwen-32B模型参数32B(320亿),模型大小:约75G

DeepSeek-R1-Distill-Llama-70B模型参数70B(70亿),模型大小:约140G

这些模型的原始大小如上所示,其中DeepSeek-R1和DeepSeek-R1-Distill-Llama-70B显然不适合在个人电脑上部署,而其余五个模型则完全可以在个人电脑上进行部署。

模型运行框架的选择

目前市面上有许多开源模型框架可供选择,但大多数框架主要面向企业级部署,通常通过各种模型加速技术提升性能。

DeepSeek-R1官方推荐的几款框架包括:vLLM、SGLang、TensorRT-LLM等。

那么,是否有适合个人部署的框架呢?

Ollama是一个开源框架,专为简化在本地机器上部署和运行大型语言模型(LLM)而设计。

特点如下:

易于使用:提供简洁的命令行界面和类似OpenAI的API,便于用户轻松管理和运行大型语言模型。

跨平台支持:支持MacOS、Linux和Windows(预览版)系统,并提供Docker镜像,方便在不同环境下部署。

模型管理:支持多种大型语言模型,如Llama、Mistral等,用户可从模型仓库下载或自行导入模型。

资源高效:优化资源占用,支持GPU加速,提升模型运行效率。

可扩展性:支持同时加载多个模型和处理多个请求,可与Web界面结合使用,方便构建应用程序。

Ollama的另一个显著优势是,它原生支持DeepSeek-R1的所有模型。同时,Ollama通过量化技术和剪枝技术对DeepSeek-R1的模型进行了优化,显著减小了模型的体积,从而更加适合个人部署使用。
在这里插入图片描述

采用Ollama实现个人部署

Winsows环境部署

1、Ollama的下载与安装

地址:https://ollama.com/download

选择与自己操作系统兼容的Ollama应用进行安装,具体的安装步骤这里不再赘述。不过,需要注意的是,Ollama的安装盘最好有50GB以上的可用空间。

2、DeepSeek-R1模型的选择

地址:https://ollama.com/

在官网主页可以看到DeepSeek-R1在醒目的位置,点击后就进入下载页面。

在左侧的下拉列表中,可以选择不同参数的模型,并查看每个模型的大小,这些大小都是经过优化后的。例如:32B模型的大小为20GB。个人用户可以根据自己电脑的配置选择合适的模型进行部署。选择好模型后,点击右侧的“复制”按钮,即可复制下载模型和运行模型的命令。

例如:选择7B模型,命令如下

ollama run deepseek-r1:7b

3、下载模型并运行

搜索框中输入:cmd,打开命令提示符窗口,输入刚才拷贝的命令。

模型下载完并运行后,就可以进行对话。

使用Ollama部署时,32B模型使用3090、4090的卡都可以顺利完成部署。

Linux环境部署

1、Ollama的下载与安装

地址:https://ollama.com/download/linux

点击复制命令,到linux界面执行,安装Ollama。

安装完毕后,执行以下命令:可以看到ollama的启动日志。

ollama serve

2、DeepSeek-R1模型的选择

参考Windows环境部署中的模型选择,选择一个大模型,这里我们以32B为例,32B后复制命令。

3、下载模型并运行

执行以下命令:模型下载并运行。

ollama run deepseek-r1:32b

注:我这里已经下载安装过,所以执行命令后,直接就进入了聊天界面。

我让它用李白的诗体为2025年除夕写一首诗,它经过思考,写了一首7言绝句,你觉得怎么样?

爆竹声中辞旧岁,

团圆饭后话桑麻。

春风拂面千家乐,

明月高悬照万家。

使用Open WebUI提升对话体验

1、Open WebUI的下载与安装

地址:https://github.com/open-webui/open-webui

找到“If Ollama is on your computer, use this command:”提示语,并复制命令。

注:我们采用Docker环境部署,环境请自行安装。

将复制的命令,在一个新的命令提示符窗口下打开。

安装完成后可以在Docker列表中看到Open WebUI的条目。

2、Open WebUI+DeepSeek-R1

Open WebUI地址:http://localhost:3000

拷贝地址在浏览器中打开,或是点击Docker Open WebUI条目中红框圈住的部分。

打开后的Open WebUI界面如下:

点击“开始使用”,完成管理员账号的创建,就可以进入聊天界面。

我让它谈以下对李白的看法,它思考一会,写了大概有1000多字,看来它十分喜欢李白,最后对李白的评价也是相当的好。

个人部署DeepSeek-R1总结

个人在本地部署时,可以根据自己的电脑配置选择不同参数的模型。如果你的电脑配有GPU显卡,且显存约为22GB,可以选择32B模型。该模型在各项指标上可与ChatGPT-o1-mini相媲美,具备完整的思考与推理过程,除了性能与DeepSeek官网差一些,其它体验相差无几。

如果你有阿里云、百度云等提供GPU的云服务器,也可以选择在云端部署大型模型,并在个人电脑上安装Open WebUI配置云端模型,这样的使用体验将是最佳的,同时还能确保个人信息安全。

采用vLLM实现企业部署

DeepSeek-R1的企业部署将在节后迎来高峰期,许多企业已经开始积极筹备。如果企业计划在节后更换现有的大模型部署,DeepSeek-R1是一个值得参考的选择。

企业可以根据自身业务需求和成本考虑部署不同参数的DeepSeek-R1模型。通常,企业都会拥有自己的用户交互系统。DeepSeek-R1的不同模型启动后,会自动启用支持OpenAI协议的接口,企业可以直接通过标准的OpenAI API方式进行接入。

执行以下命令:可以看到调用效果。

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{`    `"model": "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",`    `"messages": [`        `{"role": "system", "content": "You are DeepSeek-R1-7B. You are a helpful assistant."},`        `{"role": "user", "content": "请介绍一下你自己"}`    `],`    `"temperature": 0.6,`    `"top_p": 0.8,`    `"repetition_penalty": 1.05,`    `"max_tokens": 512``}'

模型回答:

{`	`"id": "chatcmpl-711471f00c9c40f6b4cdd66a9995d843",`	`"object": "chat.completion",`	`"created": 1738595207,`	`"model": "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",`	`"choices": [{`		`"index": 0,`		`"message": {`			`"role": "assistant",`			`"reasoning_content": null,`			`"content": "<think>\n您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1-7B。如您有任何任何问题,我会尽我所能为您提供帮助。\n</think>\n\n您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1-7B。如您有任何任何问题,我会尽我所能为您提供帮助。",`			`"tool_calls": []`		`},`		`"logprobs": null,`		`"finish_reason": "stop",`		`"stop_reason": null`	`}],`	`"usage": {`		`"prompt_tokens": 22,`		`"total_tokens": 103,`		`"completion_tokens": 81,`		`"prompt_tokens_details": null`	`},`	`"prompt_logprobs": null``}

写在最后

DeepSeek-R1已经将AI大模型带入了寻常百姓家,为AI的普及做出了巨大贡献。最后,我用DeepSeek-R1创作的一首诗来结束今天的分享。

我的提示词:

请你用DeepSeek-R1已经让AI大模型进入寻常百姓家为背景,仿刘禹锡的诗体,写一首属于你的诗句。

《智咏》

——DeepSeek-R1智启万门

寻常巷陌无寒暑,
一屏尽览古今情。
莫道云端高难问,
智能入世万象新。
千帆竞发星河渡,
万户轻吟数据鸣。
且看AI春风里,
笑与人间共潮生。

注:笔者以刘禹锡"沉舟侧畔千帆过"的变革视角切入,用"巷陌无寒暑"喻指AI普惠带来的生活质变,"云端高难问"化用"白云在青天"的古典意象,转以"数据鸣"赋予科技人文温度。末句"共潮生"既呼应刘禹锡"潮打空城寂寞回"的时空哲思,更展现智能时代人机共生的新境界。

零基础如何学习AI大模型

领取方式在文末

为什么要学习大模型?

学习大模型课程的重要性在于它能够极大地促进个人在人工智能领域的专业发展。大模型技术,如自然语言处理和图像识别,正在推动着人工智能的新发展阶段。通过学习大模型课程,可以掌握设计和实现基于大模型的应用系统所需的基本原理和技术,从而提升自己在数据处理、分析和决策制定方面的能力。此外,大模型技术在多个行业中的应用日益增加,掌握这一技术将有助于提高就业竞争力,并为未来的创新创业提供坚实的基础。

大模型典型应用场景

AI+教育:智能教学助手和自动评分系统使个性化教育成为可能。通过AI分析学生的学习数据,提供量身定制的学习方案,提高学习效果。
AI+医疗:智能诊断系统和个性化医疗方案让医疗服务更加精准高效。AI可以分析医学影像,辅助医生进行早期诊断,同时根据患者数据制定个性化治疗方案。
AI+金融:智能投顾和风险管理系统帮助投资者做出更明智的决策,并实时监控金融市场,识别潜在风险。
AI+制造:智能制造和自动化工厂提高了生产效率和质量。通过AI技术,工厂可以实现设备预测性维护,减少停机时间。

这些案例表明,学习大模型课程不仅能够提升个人技能,还能为企业带来实际效益,推动行业创新发展。

学习资料领取

如果你对大模型感兴趣,可以看看我整合并且整理成了一份AI大模型资料包,需要的小伙伴文末免费领取哦,无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

部分资料展示

一、 AI大模型学习路线图

整个学习分为7个阶段
在这里插入图片描述
请添加图片描述

二、AI大模型实战案例

涵盖AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,皆可用。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

三、视频和书籍PDF合集

从入门到进阶这里都有,跟着老师学习事半功倍。
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

四、LLM面试题

在这里插入图片描述
在这里插入图片描述

五、AI产品经理面试题

在这里插入图片描述

六、deepseek部署包+技巧大全

在这里插入图片描述

😝朋友们如果有需要的话,可以V扫描下方二维码联系领取~
在这里插入图片描述

<think>好的,用户想知道如何在本地部署DeepSeek模型。首先,我需要回忆一下之前提供的引用内容,看看有没有相关的步骤方法。引用[1]提到有一份详细的教程,由陈军老师编写,适合作为指导手册。引用[2]则提到了使用Ollama、Open Web UIchartBox进行交互,还有性能优化的部分。引用[3][4]提到了具体的部署步骤,比如创建文件夹、下载模型文件等。 用户的需求是本地部署的方法,所以需要分步骤说明。首先应该准备环境,比如Python、Git这些工具。然后下载模型文件,可能从Hugging Face或者官方渠道获取。接着安装依赖库,比如transformers、torch等。引用[4]提到新建文件夹存放模型文件,这部分要具体说明路径设置。可能还需要配置运行环境,比如设置环境变量或者调整参数。最后测试模型,确保部署成功。 还要考虑用户可能遇到的问题,比如依赖冲突、硬件要求(GPU支持),或者模型版本的选择。引用[2]提到的性能优化资源管理也需要提及,帮助用户优化运行效率。另外,引用[3]提到DeepSeek-R1是开源且免费商用的,用户可能关心许可证问题,需要确认。 接下来需要组织这些信息,按照逻辑顺序分步骤讲解,确保每个步骤清晰易懂。可能还需要提醒用户注意模型文件的大小下载时间,以及运行时的资源监控。如果有常见的错误或解决方法,也可以补充进去,帮助用户顺利部署。</think>以下是DeepSeek模型本地部署的详细步骤指南: ### 一、环境准备 1. 安装Python 3.8+环境并配置PATH变量 2. 安装Git版本管理工具(用于克隆仓库) 3. 确保至少20GB可用存储空间(以DeepSeek-R1-7B为例) 4. 推荐使用NVIDIA GPU并安装CUDA 11.8驱动[^3] ### 二、模型获取 通过以下方式获取模型文件: ```bash git lfs install git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-7B ``` 或从官方提供的模型仓库下载[^4] ### 三、依赖安装 创建虚拟环境后执行: ```bash pip install torch==2.1.2 transformers==4.35.0 accelerate ``` ### 四、部署配置 1. 新建模型存储目录(如G:\DeepSeek\models) 2. 将模型文件复制到指定目录 3. 创建启动脚本`run.py`: ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("G:/DeepSeek/models/DeepSeek-R1-7B") tokenizer = AutoTokenizer.from_pretrained("G:/DeepSeek/models/DeepSeek-R1-7B") # 推理示例 input_text = "解释量子计算" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs) print(tokenizer.decode(outputs[0])) ``` ### 五、运行优化 1. 添加`device_map="auto"`参数启用多GPU支持 2. 使用`load_in_8bit=True`进行量化压缩[^2] 3. 设置环境变量: ```bash export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:128 ``` ### 六、验证部署 ```bash python run.py ``` 成功输出推理结果即表示部署完成[^3]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值