众所周知,deepseek火了一个月了
自己毕设开发的python客户端中,也要集成LLM
因此,需要先部署deepseek - r1 免费 高效
#### LLM模型选择
deepseek r1 - 14b 32b 70b 均集成。默认32b。平衡性能和效果。
#### 本地部署
参考来源:
[DeepSeek 本地化部署(保姆喂饭级教程) - 知乎 (zhihu.com)](https://zhuanlan.zhihu.com/p/21030210489)
[自定义Ollama安装路径 - 不愿透露姓名的菜鸟 - 博客园 (cnblogs.com)](https://www.cnblogs.com/LaiYun/p/18696931)
1. 下载Ollama
用来快速部署LLM模型
[Download Ollama on Windows](https://ollama.com/download) Ollama
2. 自定义 Ollama安装路径【否则可能自动安装到C盘】
如在【D:\Software\Artificial Intelligence\Ollama】
则运行【 OllamaSetup.exe /DIR=D:\Software\Artificial Intelligence\Ollama】
运行命令安装