基于Llama 3.1和一台MacBook搭建商用级知识库

▼最近直播超级多,预约保你有收获

1

为什么要在 MacBook 上搭建知识库?

最核心最重要的是我们手上的文档资料出于安全要求,不能随便上传到云服务,也就无法实际验证知识库的实际效用。另外对于 IT 同学来说,自己亲手搭建一个完整的方案、能灵活调整和对接各种不同的模型、评测各种模型不同的表现,也是出于对技术的探索本能使然。

使用的 MacBook 配置如下,对大模型经过量化处理(比如:int8)后,可以流畅运行。

2c480a489aeb895f77d43d4143d30817.jpeg

 2

知识库的架构设计

基于一台 MacBook 搭建部署的架构设计如下图,在这套架构设计中,我们采用了实力排上游、并且对企业和学术都友好的最新开源大模型 Llama 3.1

10687b330bd99fc60641489659d7e615.jpeg

并采用了基于 m3e-base 模型的 embedding search RAG 方案。基于这两个模型封装和 ChatGPT 兼容的 API 接口协议;通过引入 One API 接口管理 & 分发系统,形成统一 LLM 接口渠道管理平台规范,并把封装好的接口协议注册进去;搭建与 Dify.ai 齐名开源大模型知识库平台管理系统 FastGPT,实现集私有知识数据源预处理、嵌入检索、大模型对话一体的完整知识库应用流程。

麻雀虽小五脏俱全,最终形成一套既满足商用标准、又能在 MacBook 跑起来的的方案。虽然智能程度和实际需求还有一定差距,但至少我们在不用额外购买显卡或云服务的情况下,以最小成本部署运行、并且能导入实际业务数据(如:设计文档、业务流程文档、项目管理文档、技术分享文档等等)进行实操验证,值得每位工程师都来动手尝试一下。

更详细的架构设计剖析,直播详细剖析,请同学点击下方按钮预约直播。

 3

知识库的部署设计

基于 MacBook 的部署方案分为四个主要环节、14个具体步骤,只要一步步实操下去,每位 IT 同学都可以在自己的 MacBook 上拥有属于自己的私有大模型知识库系统,步骤清单如下:

7f42e417dc015ea92ed71e7b34c28f34.png

部分步骤可以简单地通过 Docker 镜像一键部署完成,但本着对细节一杆子插到底的部署思路,还是采取了纯手工作业的方法。

由于需要动手实际操作,更详细的实操步骤,放在直播实操进行,请同学点击下方按钮预约直播,咱直播见!

4

加我微信

有很多不方便公开发公众号的我会直接分享在朋友圈欢迎你扫码加我个人微信来看👇

c1c021f675d64c579dca169b134f9ffd.jpeg

⬇戳”阅读原文“,立即预约!

END

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值