DeepSeek 本地部署(Mac版 安装教程)M1

1.首先说一下部署环境 MacBookPro M1pro 16+512版本,系统更新到了最新MacOS Sequoia 15.3

2.安装开源的大语言模型本地部署框架Ollama

Ollama,是一款开源的大语言模型本地部署框架,主要用于在本地机器上便捷地部署和运行大语言模型(LLM)。类似的部署框架还有别的,具体没有研究,从这个软件的设置可以看出。

如何安装Ollama:注意要求最低的系统

进入 Ollama 官网

安装成功后,桌面多出一个logo图标

进一步验证是否安装成功:打开终端,输入命令,看到版本号即可

ollama -v

3.下载安装 DeepSeek-R1

依旧在Ollama网站,搜索DeepSeek-R1,点击进入

ollama run deepseek-r1:1.5b 即为安装 1.5b

ollama run deepseek-r1:14b 即为安装 14b

我个人也看到了一些配置要求的帖子,我先安装了7b的版本,后装了14b的版本,运行起来均没有问题

安装过程,及成功后的情况如下

安装成功后,出现success字样即可输入问题和 DeepSeek-R1 对话了

4.ollama 的一些命令

ollama run deepseek-r1:14b 运行模型服务

ollama stop deepseek-r1:14b 停止模型服务

/bye 退出模型对话 注意:退出不会停止模型服务

ollama ps 列出正在运行的模型

ollama -v 查看ollama版本信息

5.安装客户端 Chatbox 使用本地模型,增强体验感

Chatbox,是一个开源的 AI 模型桌面客户端,支持多种主流 AI 模型 和 API。

安装成功后,打开设置

注意:使用时一定要先启动本地模型,即先 ollama run deepseek-r1:14b 运行模型服务

### 如何在 Mac M1本地部署 DeepSeek #### 准备工作 为了成功部署 DeepSeek,在MacBook Pro (M1 芯片)上需准备以下工具和资源: - **Docker**:作为打包部署的容器引擎,能够创建隔离的应用程序运行环境[^2]。 - **ollama**:这是一个简化大型语言模型(LLM)本地部署与运行过程的开源框架。它帮助处理复杂的配置细节,使得开发者更容易启动和管理这些模型实例[^3]。 - **Open Web UI**:用于提供直观易用的操作界面给最终用户访问已部署的服务。 #### 部署步骤说明 ##### 安装 Docker 和 ollama 通过官方渠道获取适用于 Apple Silicon 架构(即 M1/M2 系列处理器)本的 Docker Desktop 并完成安装;接着按照文档指引设置好 ollama 开发环境。 ##### 获取并启动 DeepSeek 模型 利用终端执行特定命令来拉取所需规模的预训练权重文件至本地机器,并立即激活该服务以便测试交流功能。对于内存较小设备建议先尝试轻量级选项如`1.5b`: ```bash ollama run deepseek-r1:1.5b ``` 此操作将会触发后台自动完成剩余必要的准备工作直至准备好接收请求为止[^4]。 #### 后续优化提示 考虑到不同硬件条件差异较大,可根据实际情况调整所选用的具体变体大小以平衡性能表现同资源占用之间的关系。除了上述提到的基础型号外还存在其他多种规格可供选择,例如 `7b`, `8b`, `14b`, `32b`, `70b` 及更大尺寸等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值