1、安装 Ollama 及R1本地测试
打开ollama官网
点击download,根据系统选择对应的安装包
下载后点击Install安装
通过Win+R打开命令行
cmd
输入代码测试安装成功,同时查看相关命令
ollama -v
下面回到ollama官网点击左上角Models
如果你的显卡有8G以上显存或8G以上内存,可以尝试7b的模型,如果没有就直接选择1.5b模型。下面是集中模型的下载代码,可以直接复制,粘贴到命令行。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
复制安装命令在命令行,enter运行,等待下载完成。
通过ollama list查看已安装模型
ollama list
通过ollama run +模型名称运行模型,我这里是7b模型因此使用
ollama run deepseek-r1:7b
如果是1.5b模型则使用
DeepSeek-R1 免费本地部署 和 Python 调用
于 2025-02-05 13:37:30 首次发布