引言
Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,Ollama极大地简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。
解决下面两种场景:
a. Ollama+deepseek-R1-1.5B+chatbox本地部署
b. vscode+cline+ollama+deepseek-R1辅助编程
1. 访问官网下载:Ollama官网下载
2 配置系统环境变量,用于chatbox访问和deepseek安装目录。
1) OLLAMA_MODELS:E:\AI\models
2)OLLAMA_HOST:0.0.0.0
3)OLLAMA_ORIGINS:*
安装成功后如果你打开Win+R输入cmd打开后输入命令:
ollama -v
注意:需要配置Ollama的模型下载地址,如果不配置则会把几个G的开源模型安装到你的C盘上!