5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)

最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。

老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。

为什么呢?

目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。

虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。

官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。

不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。

此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。

看完全文,你会收获:

1、满血 DeepSeek R1 模型 API 搭建方式

2、本地部署 DeepSeek R1 模型 搭建方式

一、个人知识库使用效果(满血版)

来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事

**DeepSeek 确实很好用,但关键还是会不会提问。**如果不会提问,AI 再强也帮不上忙。

除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!

AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。

从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。

当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。

二、API 搭建知识库

如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。

我们来看看怎么利用 API 用上满血的 R1 模型(671 B)。

1、先下载一个叫 Cherry Studio 的软件。

地址: https://cherry-ai.com/download

2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。

地址:https://cloud.siliconflow.cn/i/TAAOvaXg

3、来到 API 密钥生成界面,创建或者复制已有的密钥。

4、来到 Cherry Studio,配置 API Key。

5、在模型广场首页,排在前两位的就是**「硅基流动」「华为云」**合作发布的 DeepSeek R1 / V3 模型。

如果需要推理能力,记得打开并复制 R1 模型的名称。

6、在模型服务的硅基流动下方,添加 R1 模型。

7、记得点击检查,测试下 API 是否可以正常访问

8、现在对话模型有了 R1,还缺少一个嵌入模型。

嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中

在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。

过去我有通俗解释过 RAG 技术,大家如果不了解,可以回头看下:

我们再配置一个向量模型:**BAAI/bge-m3。**如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。

按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。

9、在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。

10、上传本地文件进行向量化。

如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格数学公式,解析效果会很差,甚至无法解析。

遇到这种情况,建议配合过去我介绍的 PDF 转结构化文档 的方案来使用!!!

这样才可以正常回复知识库的内容:免费AI神器!精准解析 PDF 还能一键翻译!

如果追求性价比,推荐使用 Doc2x:https://doc2x.noedgeai.com?inviteCode=4A6KOD

如果希望更加稳定,那么可以考虑 Textin :https://www.textin.com/market/detail/pdf_to_markdown

当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。

11、测试使用,这一步添加助手,并选择刚配置的 满血 R1 模型

如果不想每次在添加助手时选择模型,可以将它设置为 默认模型

我们来测试一下,发现 DeepSeek 已经开始深度思考了。

AI 回复的答案和原文一致。

原文内容:

三、本地部署搭建知识库

如果只是想 简单体验,或者本地算力充足、希望保护数据安全,那么可以考虑 本地部署 的方案。

1、访问 Ollama 官方地址:https://ollama.com/download,下载软件。

建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。

2、双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)。

地址:https://ollama.com/library/deepseek-r1

如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。

有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。

下载并运行成功后,就可以和 DeepSeek R1 对话啦。

3、当然,我们可以用 Cherry Studio 作为本地 R1 模型的 UI 界面。

打开软件的配置,选择 Ollama,在管理按钮中选择自己部署的模型。

如果选不到,就手动添加模型,API 秘钥填不填无所谓。

最后点击检查,测试下网络连通性,出现连接成功即可。

接下来就可以在添加助手时,选择本地部署的 R1 模型啦。

4、再测试使用一下,答案与原文一致,搞定 ~

因为我用的是 Mac,所以没测试 Windows 设备。不过两者区别不大,大家可以自行尝试下。

四、总结

看到这里,相信你已经找到最适合自己的 DeepSeek 个人知识库方案了。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

### DeepSeek-R1 本地部署知识库搭建指南 #### 环境准备 为了顺利进行 DeepSeek-R1本地部署,需遵循简易的三步流程来完成环境构建。此过程设计得非常直观,旨在让不同技术水平的人都能顺利完成设置工作[^1]。 #### 部署步骤详解 具体来说,在第一步中,用户需要准备好运行所需的硬件和软件条件;第二步涉及安装必要的依赖项和服务端口配置;最后一步则是启动服务并验证其正常运作状态。通过这三个阶段的操作,可以确保整个系统的稳定性和功能性得到保障。 对于希望进一步优化性能或减少资源占用的情况,可以选择使用蒸馏版本的模型——即 **DeepSeek-R1-Distill-Qwen-7B** 。该版本不仅保持了原有功能特性,还实现了更高效的运算效率以及更低廉的成本投入[^2]。 #### 开启联网搜索及其他高级特性 一旦完成了基本的部署之后,还可以探索更多实用的功能选项。比如启用互联网搜索能力,这使得应用程序能够访问外部网络获取最新资讯和支持材料。此外,还包括但不限于支持多种文件格式解析(PDF, CSV, TXT, MD, DOCX),允许用户上传文档并与之互动交流等功能[^3]。 ```bash # 示例命令:假设已按照官方指导完成前期准备工作后执行如下指令以激活特定模块 sudo systemctl start deepseek-r1.service curl http://localhost:8080/api/v1/search?q=example&source=internet ``` #### 构建个性化知识库 针对企业级应用场景下的需求定制化开发,则可以通过集成第三方API接口或者自定义插件的方式扩展平台的核心服务能力。例如创建专属的知识管理体系,利用自然语言处理技术自动分类整理海量数据源,并提供精准检索体验给最终使用者。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值