一、简介
DeepSeek 推出了 两款大模型 , 分别是 DeepSeek-R1 和 DeepSeek-V3 , 二者在 模型定位、训练方法、性能表现和应用场景等方面存在显著差异 ;
DeepSeek-V3 大模型
DeepSeek-V3 大模型 是 通用的自然语言处理模型 , 采用混合专家 ( MoE ) 架构 , 主要面向自然语言处理 ( NLP ) 任务 , 旨在提供高效、可扩展的解决方案 ;
DeepSeek-V3 大模型 应用场景 : 需要高性价比通用 AI 能力的场景 , 如 智能客服、内容创作(文案、小说)、知识问答等 ;
DeepSeek-R1 大模型
DeepSeek-R1 大模型 专注于 高级推理任务 , 专为复杂推理任务设计 , 强化在数学、代码生成 和 逻辑推理领域 的性能 ;
DeepSeek-R1 大模型 使用场景 : 针对科研、算法交易、代码生成等复杂任务设计 ;
今天就让我们来看看DeepSeek-R1如何安装部署
二、安装DeepSeek-R1
1.下载Ollama并安装运行DeepSeek
先从Ollama官方网站下载Ollama:
进入官网可以看到已经支持DeepSeekR1的部署了
点击下载选择和自己电脑系统一致的
我这里选择的是windows下载
关于模型的选择
上述模型,我们知道671B的模型才是基础模型,其余的1.5B、7B、8B等都是蒸馏模型,因此Qwen代表是通义千问模型蒸馏的,Llama是通过Llama模型蒸馏的,根据我电脑的配置,我选了1.5B模型
下载完成之后,他会默认给出llama3.2大模型,但是我们不使用这个模型,而是选择1.5B模型
打开我们的终端,输入
ollama run deepseek-r1:1.5b
耐心等待,下载完成后的界面是这样的
ps:如果下载速度突然下降严重,可以先停止,再重新输入下载命令,我这么干了感觉是有效的
下载完成就可以直接进行对话了
2.LMStudio本地部署
首先安装LMStudio,官方网址
LM Studio - Discover, download, and run local LLMs
选择对应版本下载
之后进入LMStudio
首先进入开发者模式
点击这里,进入部署页面
点击左下角进入代理选项,勾选Use LM Studio‘s Hugging Face Proxy
这是下载完成
点击选择要加载的模型
配置模型参数
现在就可以正常使用了