本机配置参考
i5 13600kf + RTX4060ti 16G
1. Ollama 的setup.exe文件
2.将Ollama安装位置和拉取模型位置改至D盘或者E盘
参考:handy-ollama/docs/C3/2. 自定义模型存储位置.md at main · datawhalechina/handy-ollama · GitHub
上文里面的第一步和第二步有一点模糊,其他的都没问题:
第一步运行.\OllamaSetup.exe /DIR="D:\Ollama\Models"时需要在OllamaSetup.exe所在目录处cmd运行
第二步修改系统环境变量时,需要严格按照(1)先退出安装完毕的ollama,(2)再更改环境变量,(3)最后重新运行ollama的步骤操作。并且:
上面这一步中Models文件夹中对应的是原来Ollama再C:\Users\hp\.ollama的models文件夹中的内容,需要复制过去,并且删除原来的.ollama文件(可以备份到别的地方),总之就是原来Ollama存放模型的位置现在不能有东西。在以上操作都完成的前提下,再运行Ollama。
并且需要将Ollama.exe所在根目录添加到系统环境变量的Path中,否则报错。
3.使用Ollama部署DeepSeek R1
为了尽量部署参数尽可能多的版本,我部署的是轻量化处理后的GGUF格式的32B版本,从Hugging Face的镜像站拉取。
仓库:
https://huggingface.co/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF
拉取命令(前两步完成后运行 ollama list测试前两步是否做对):
ollama run hf-mirror.com/bartowski/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q4_K_M
4.让Ollama使用gpu调用大模型
Ollama系列---【ollama使用gpu运行大模型】 - 少年攻城狮 - 博客园
实验室电脑在14B模型上可以跑满 32B模型上cpu/gpu 3,7开