MacOS本地部署Deepseek,不联网也可以使用AI,保护隐私

苹果笔记本本地部署deepseek主要用到Ollama与open-webui

1. 安装Ollama

“Ollama” 是一个轻量级的 AI 模型运行时环境(runtime),旨在简化在本地部署和使用大语言模型(LLM)的过程。它由 Vicarious 公司开发,支持多种 AI 模型(如 GPT-3、GPT-4 等),并允许用户通过简单的命令行或 API 接口与这些模型进行交互。

  • 网页搜索Ollama点击进入

网页搜索Ollama点击进入

  • 点击Download 

点击Download 

  • 选择MacOS,点击download for MacOS (使用科学上网下载更快)

  • 下载的文件名为Ollama-darwin.zip,解压后得到一个羊驼图标的Ollama,正常安装(安装时选择move to Applications可以在启动台中找到ÿ
### DeepSeek 本地联网部署方法 #### 下载 Ollama 安装包 为了开始 DeepSeek本地联网部署,首先需要从 Ollama 官网获取适合操作系统的安装包。访问官方网站 (Ollama),点击“Download”。依据所使用的操作系统(Windows、macOS 或 Linux),选择并下载相应的安装文件[^4]。 #### 环境配置与初始化设置 完成软件下载之后,需确保计算机环境中已准备好必要的依赖项和支持库来运行 DeepSeek 模型。这通常涉及到 Python 版本确认以及特定版本的 PyTorch 和其他机器学习框架的预安装。对于希望启用联网功能的应用场景来说,还需额外集成能够处理 HTTP 请求和解析 JSON 数据的相关模块[^2]。 #### 部署 DeepSeek 并连接互联网服务 通过命令行工具执行之前获得的 `ollama run` 命令启动 DeepSeek 实例。具体指令形式如下所示: ```bash ollama run deepseek-r1:32 ``` 此过程会加载指定版本号为 R1 及量化位数为 32bit 的 DeepSeek 大规模语言模型实例。为了让该实例拥有上网查询的能力,在此基础上还需要进一步定制化开发——即引入 Microsoft Semantic Kernel SDK 来扩展应用程序接口(APIs)的功能集,从而允许内部逻辑调用外部 Web API 获取实时信息更新。 #### 构建具备联网增强特性的 AI 应用程序 利用上述提到的技术栈组合方案,可以着手创建一个既能在离线状态下稳定工作又能适时接入在线资源扩充知识面的人工智能解决方案。例如,当遇到无法解答的问题时,系统可以通过预先设定好的搜索引擎插件发起请求抓取最新资料作为辅助决策支持;而在日常运作期间则保持独立自主的状态以保护隐私安全[^3]。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值