最近,Deepseek在互联网掀起一阵浪潮,原因在于其用较低的成本训练出一个能和openai的chatgpt4媲美的大模型deepseek。
下面将介绍如何进行Deepseek本地部署,部署流程主要分为两步,一是ollama软件安装,二是模型下载及运行。
1、ollama软件安装
- 进入ollama官网,点击“download”按钮,具体如下图所示。
- 接下来进入平台选择界面,ollama能支持的平台有macOS、Linux和Windows,本次使用Windows平台(仅支持Windows 10及以上版本)作为示例进行说明,如下图所示。
下载好后,双击打开安装包,点“Install”进行安装,如下图所示。
- 安装完后,打开一个cmd终端窗口(按“Win”+R),输入
ollama
,如果界面显示如下信息,则说明ollama已经安装上。
- 如果输入
ollama
后没有提示如上信息,则需要检查安装系统和软件信息是否匹配。
安装完ollama
后,接下来进行模型安装。
2、ollama模型安装及运行
- 同样还是进入ollama官网,选择模型选项卡,选择“deepseek-r1”,并点击进入,具体如下图所示。
-
点击后进入如下图所示的界面,首先选择deepseek的模型,模型文件越大,模型复杂度越高,需要的硬件成本越高,这里仅演示
1.5b模型(文件大小1.1GB)
,如果有较多硬件资源的读者可以尝试其他模型,其他模型操作与此模型操作一致。 -
选择1.5b模型,查看右边命令行,结尾显示1.5b,再点击右侧的复制按钮,复制
ollama run deepseek-r1:1.5b
。
-
将刚刚复制的命令输入到cmd终端(按“Win”+R),ollama就会从远端拉取deepseek-r1-1.5b模型,拉取过程中会比较慢,如果遇到网络不好的情况,可以按“Ctrl+C”中断,后面还是输入原先命令(
ollama run deepseek-r1:1.5b
),输入到cmd终端,ollama会有断点重传机制,因此会从原先的下载进度开始,继续下载。 -
下载完成后就会自动进入到问答界面,就可以输入想要提问的文字让deepseek-r1-1.5b模型回答你的问题,后续如果还要运行模型,则直接输入
ollama run deepseek-r1:1.5b
即可。
3、总结
本文介绍了如何使用ollama和deepseek构建一个问答系统,后续使用第三方集成服务来提高模型输出的完整性。