-
到Ollama官网根据你的平台下载并安装最新的Ollama软件
-
点击左上角的
Models
按钮,进入模型选择界面,选择deepseek-r1
3.我的RTX 3060显卡有12GB的显存,所以这里我选择的14b的模型。跑32b已经很吃力了,显存不够用,内存带不动。
4.复制以上命令(ollama run deepseek-r1:14b
)并粘贴到CMD控制台窗口,这时会自动下载模型数据。默认模型数据是在C盘,自定义模型位置可以设置环境变量OLLAMA_MODELS
到指定路径重定向模型安装位置,待模型数据下载完成后你就可以提问了。
5.下载并安装Chatbox,在启动后弹出的对话框中点击使用自己的本地模型。选择Ollama并将模型库调整为deepseek 14b其余不变。
6.现在你就可以提问了