DeepSeek-R1 本地部署保姆级教程

随着国产大模型DeepSeek-R1模型在网上爆火,出于数据安全与隐私保护、个性化定制、离线可用性等诸多需求,今天来教大家如何在本地部署DeepSeek-R1模型。

一、安装Ollama

打开Ollama官网Ollamahttps://ollama.com/点击下载

选择对应的版本

下载完成之后点击exe这个文件(找到下载的位置)

点击Install 等待软件安装完毕

在电脑的搜索框输入cmd 调出命令提示符

输入ollama -v

如果出现Ollama的版本 则说明Ollama已经安装完毕

二、部署DeepSeek-R1模型

打开Ollama官网 找到Models 选择第一个

根据需求和设备条件选择相应的版本

模型越大越好用 但对显卡以及电脑的配置的要求也越高

复制安装命令

进入命令提示符,粘贴命令之后按回车

当显示success时,表示安装完毕

此时已经可以直接对话

输入/bye可以退出

当想要再次开启对话时,可以输入ollama list

接着复制想要打开的模型的名字 

输入ollama runn 粘贴名字,按回车即可进入对话

三、美化使用界面

搜索Chatbox

Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载https://chatboxai.app/zh下载Chatbox或者使用网页版

点击设置选择OLLAMA APL 接着再选择已下载的模型

注意!!!一定一定一定要参考教程操作 确保远程Ollama服务能够远程连接

操作完成之后点击保存即可

以上就是关于如何在本地部署DeekSeep-R1模型的全部内容啦 希望大家都能顺利部署成功!

### DeepSeek-R1 本地部署使用指南 #### 准备工作 为了顺利进行 DeepSeek-R1本地部署,需先完成 Ollama 平台的安装。这一步骤至关重要,因为后续所有的操作都将依赖于该平台所提供的服务环境[^3]。 #### 获取模型文件 前往 ollama 网站 deepseek-r1 页面获取所需版本的模型文件。页面提供了多个版本供选择,建议依据实际应用场景和个人偏好挑选合适的版本下载[^1]。 #### 安装配置过程 依照官方提供的《DeepSeek-R1 本地部署保姆教程》,逐步执行如下命令以实现模型的成功加载: ```bash # 假设已成功安装并启动 Ollama 服务器 curl http://localhost:11434/api/generate \ -d '{"model": "deepseek-r1:8b", "prompt": "请用五句话介绍量子计算", "stream": false}' ``` 上述代码片段展示了如何通过 HTTP POST 请求调用 API 接口发送指令给已经运行中的 Ollama 实例,从而触发指定型号(此处为 `deepseek-r1:8b`)的大规模预训练语言模型生成相应文本回复[^4]。 #### 测试验证环节 当一切准备就绪之后,可以通过向本地主机发出测试请求的方式来检验整个系统的正常运作情况。如果一切无误,则会接收到预期之内的 JSON 格式的响应消息,其中包含了由目标模型所生产的自然语言描述内容。 #### 扩展应用实例 对于希望进一步提升用户体验的朋友来说,在浏览器中添加 Page Assist 插件不失为一个好的选择。此工具能够帮助用户更便捷地利用 DeepSeek-R1 提供的强大功能处理日常事务。具体做法是从 Chrome 应用商店下载安装这款扩展程序,并参照指引完成必要的初始化设定步骤。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值