Ollama 是一个开源的本地化大模型(LLM)部署和管理工具,核心作用是让用户轻松在本地运行、管理和交互大型语言模型(如 LLaMA、Mistral、DeepSeek等)。
与同类工具的区别
工具 | 特点 | 适合人群 |
---|---|---|
Ollama | 极简部署、开箱即用、轻量化 | 开发者、普通用户 |
Hugging Face | 需手动配置环境,灵活性高 | 专业开发者、研究人员 |
Docker | 容器化部署,适合复杂环境 | 运维、企业级部署 |
Ollama 是一个“极简版”的本地大模型运行工具” 核心价值是降低大模型的使用门槛,让用户无需关心技术细节,专注于实际应用(如写作、编程、数据分析)。如果你需要快速体验或轻量化部署,Ollama 是最佳选择之一。所以目前火的一塌糊涂的DEEPSEEK模型完全可以通过Ollama进行本地化部署。
但是通过Ollama进行本地化部署时,无法直接进行路径设定,默认会部署到C盘下,如何将模型下载到指定的路径下呢?
一、首先安装Ollama
1.浏览器打开Ollama,点击Download