通过Ollama将deepseek模型部署到指定路径

Ollama 是一个开源的本地化大模型(LLM)部署和管理工具,核心作用是让用户轻松在本地运行、管理和交互大型语言模型(如 LLaMA、Mistral、DeepSeek等)。

与同类工具的区别

工具 特点 适合人群
Ollama 极简部署、开箱即用、轻量化 开发者、普通用户
Hugging Face 需手动配置环境,灵活性高 专业开发者、研究人员
Docker 容器化部署,适合复杂环境 运维、企业级部署

Ollama 是一个“极简版”的本地大模型运行工具” 核心价值是降低大模型的使用门槛,让用户无需关心技术细节,专注于实际应用(如写作、编程、数据分析)。如果你需要快速体验或轻量化部署,Ollama 是最佳选择之一。所以目前火的一塌糊涂的DEEPSEEK模型完全可以通过Ollama进行本地化部署。

    但是通过Ollama进行本地化部署时,无法直接进行路径设定,默认会部署到C盘下,如何将模型下载到指定的路径下呢?

     

一、首先安装Ollama

1.浏览器打开Ollama,点击Download

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值