手把手教你部署DeepSeek-R1

一、简介

DeepSeek 推出了 两款大模型 , 分别是 DeepSeek-R1 和 DeepSeek-V3 , 二者在 模型定位、训练方法、性能表现和应用场景等方面存在显著差异 ;

DeepSeek-V3 大模型

DeepSeek-V3 大模型 是 通用的自然语言处理模型 , 采用混合专家 ( MoE ) 架构 , 主要面向自然语言处理 ( NLP ) 任务 , 旨在提供高效、可扩展的解决方案 ;

DeepSeek-V3 大模型 应用场景 : 需要高性价比通用 AI 能力的场景 , 如 智能客服、内容创作(文案、小说)、知识问答等 ;


DeepSeek-R1 大模型

DeepSeek-R1 大模型 专注于 高级推理任务 , 专为复杂推理任务设计 , 强化在数学、代码生成 和 逻辑推理领域 的性能 ;

DeepSeek-R1 大模型 使用场景 : 针对科研、算法交易、代码生成等复杂任务设计 ;

今天就让我们来看看DeepSeek-R1如何安装部署

二、安装DeepSeek-R1

1.下载Ollama并安装运行DeepSeek

先从Ollama官方网站下载Ollama:

进入官网可以看到已经支持DeepSeekR1的部署了

点击下载选择和自己电脑系统一致的

我这里选择的是windows下载

关于模型的选择

上述模型,我们知道671B的模型才是基础模型,其余的1.5B、7B、8B等都是蒸馏模型,因此Qwen代表是通义千问模型蒸馏的,Llama是通过Llama模型蒸馏的,根据我电脑的配置,我选了1.5B模型

下载完成之后,他会默认给出llama3.2大模型,但是我们不使用这个模型,而是选择1.5B模型

打开我们的终端,输入

ollama run deepseek-r1:1.5b

耐心等待,下载完成后的界面是这样的

ps:如果下载速度突然下降严重,可以先停止,再重新输入下载命令,我这么干了感觉是有效的

下载完成就可以直接进行对话了

2.LMStudio本地部署

首先安装LMStudio,官方网址

LM Studio - Discover, download, and run local LLMs

选择对应版本下载

之后进入LMStudio

首先进入开发者模式

点击这里,进入部署页面

点击左下角进入代理选项,勾选Use LM Studio‘s Hugging Face Proxy

这是下载完成

点击选择要加载的模型

配置模型参数

现在就可以正常使用了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值