DeepSeek 与 Ollama:本地运行 AI 模型的完美组合

今天体验一把本地跑大模型,仅体验安装流程,并不是用实际生产。实际生产还是用 API 或网页版。

部署DeepSeek依赖 Ollama,它是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型。 

图片

1、安装 ollama

根据你的操作系统类型,选择合适的 Ollama 安装包。 

🌵官方下载页 

https://ollama.com/download 

2、安装 deepseek-r1

根据你的电脑配置,可以选择不同参数的模型版本。普通配置的电脑可选择 7B 或 1.5B 的模型,而配置较高的电脑则可以选择更大参数的 32B 模型。 

Image

🌵模型下载网页 

https://ollama.com/search 

Image

例如,选择 1.5B 的模型,可以通过以下命令进行部署: 

ollama run deepseek-r1:1.5b

Image

部署完成,可以提问了。 

Image

3、网页对话(可选)

直接使用 chrome 插件 page-assist,实现页面进行对话。 

🌵page-assist 官方 

https://github.com/n4ze3m/page-assist 

Image

4、MacOS 三行命令部署

因为我的系统是 MacOS,已安装了 brew,所以使用 brew 安装 ollama,当然本机部署只是体验过程,并不用于实际生产使用。 

brew install ollama
ollama serve
ollama run deepseek-r1:1.5b

命令 1 是下载 Ollama 

命令 2 是运行 Ollama服务,Ollama 需要一直后台运行。 

命令 3 是下载/运行 DeepSeek 模型:需新打开一个命令窗口,执行命令 3。 

这里使用的是 1.5b 参数的版本,大概需要 1.1G。 

 


相关阅读

DeepSeek的魔法:如何让复杂概念变得通俗易懂?

高效使用 DeepSeek 的“七大”技巧,AI小白也能轻松上手!

免费使用 DeepSeek 全尺寸模型API,各享 100 万免费 tokens

DeepSeek V3 vs R1:到底哪个更适合你?全面对比来袭

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值