1、硬件环境和操作系统
参数量级(billion) | 硬件推荐 | 备注 | 性能 | 实验环境 |
deepseek-1.5B和7B | 选择RTX 3060或其他 Pascal架构显卡,搭配至少8GB的内存 | 1、需要快速生成简短回答,可以选择 1.5B。 2、需要平衡响应质量和效率,可以选择 7B。 | 在处理简单任务时表现尚可,但在面对复杂或罕见问题时,准确性相对较低,容易出错。 | 实验使用7B 实验环境:win11+intel i5 8C16G |
deepseek-70B | 推荐使用RTX 40系列 APU 或更高世代显卡,搭配至少16GB或更高内存。 | 处理复杂的对话或需要更准确的输出,建议选择 70B。 | 参在回答复杂逻辑推理问题、处理长文本上下文信息时表现更出色,准确性更高 |
2、下载与安装
2.1、ollama下载与安装
ollama是一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型。
windows版本的官网下载地址:https://ollama.com/download/OllamaSetup.exe
下载完成后运行exe文件,点击install进行安装。
安装成功后,Win+R输入cmd,然后检查是否安装成功,以及对应的版本。
ollama -v显示出当前对应的版本是0.5.7,证明已经安装成功
D:\zll>ollama -v
ollama version is 0.5.7
2.2、ollama安装 deepseek-r1模型
allama官网查找对应的模型:Ollama,这里我们选择7b模型,拷贝对应的安装命令。
3、本地部署deepseek-r1测试
D:\zll>ollama run deepseek-r1
>>> 世界最高峰是什么?
<think>
</think>
世界最高峰是珠穆朗玛峰,海拔高度为8,848.86米。