本地部署deepseek,参考b站up NathMath

本地部署deepseek——个人总结

前言

参考视频

个人精简了一下,实际上部署很简单一两分钟就能说完

我的环境

系统win11 显卡4070s

NVIDIA-SMI 566.36 Driver Version: 566.36 CUDA Version: 12.7

关于cuda请自行安装

安装 LM Studio

自行安装

下载模型

1.5B: bartowski/DeepSeek-R1-Distill-Qwen-1.5B-GGUF · HF Mirror

8B: bartowski/DeepSeek-R1-Distill-Llama-8B-GGUF · HF Mirror

32B: bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF · HF Mirror


没有GPU:1.5B Q8推理 或者 8B Q4推理

4G GPU:8B Q4推理

8G GPU:32B Q4推理 或者 8B Q4推理

16G GPU:32B Q4推理 或者 32B Q8推理

24G GPU: 32B Q8推理 或者 70B Q2推理


这一步会下载得到一个*.gguf文件

导入模型

启动LM Studio,点击My Model

找到模型目录(这里我修改了默认的目录)

注意这里,先创建一个目录,名字任意

进入,再创建目录,名字为你要放入的模型的名字(去掉后缀)

将模型复制进去

刷新后就能看到模型了

点聊天,加载模型,后面的部分自己按照提示就能完成,不说了

其他

1. 加载模型时的参数设置

如果你内存/显存不够,可以考虑把 Context Length 减小

2. 推理能力据说 32BQ4 比官方的模型差10%

参考资料

b站up NathMath

DeepSeek R1 推理模型 完全本地部署 保姆级教程 断网运行 无惧隐私威胁 大语言模型推理时调参 CPU GPU 混合推理 32B 轻松本地部署哔哩哔哩bilibili

DeepSeek R1 推理模型 一键包【答疑2】完全本地部署 保姆级教程 断网运行 无惧隐私威胁 深度求索 32B 模型3050显卡实测跑通!哔哩哔哩bilibili

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值