小白也可以部署私有化大模型知识库_私有化知识库

透过产品了解RAG技术原理,对未来大模型应用开发也将起到事半功倍的效果。

虽然网络上有很多此类技术文章,这里自己也进行一次总结,加深印象的同时给小伙伴做一个参考,多多交流。

准备
  • Linux服务器、windows也可以

  • Docker环境,记得安装docker-compose指令

  • GPT账号(我用的是Azure的账号)one-api也支持多类大模型账号

RAG原理介绍

RAG技术原理图可以看到,通过检索获取相关的知识并将其融入Prompt,让RAG技术是一种检索增强生成的技术,它通过检索获取相关的知识并将其融入Prompt,让大模型能够参考相应的知识从而给出合理回答。因此,可以将RAG的核心理解为“检索+生成”,前者主要是利用向量数据库的高效存储和检索能力,召回目标知识;后者则是利用大模型和Prompt工程,将召回的知识合理利用,生成目标答案。

RAG架构包含数据准备和应用两个阶段:数据准备阶段主要是将私域数据向量化后构建索引并存入数据库的过程;应用阶段则是用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答案。

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理入门指南

③大模型方向必读书籍PDF版

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧AGI大模型技术公开课名额

FastGPT服务部署

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

FastGPT提供开源版本支持私有化部署,同时也提供在线版本,可自行体验,这里是官网介绍。

FastGPT支持多种本地化部署方式,这里采用Docker-compose的方式部署

  1. 下载配置文件docker-compose.yml、config.json
mkdir fastgpt``cd fastgpt``curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml``curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

2、启动容器服务

可自行修改yml文件配置,指定暴露的端口

# 在 docker-compose.yml 同级目录下执行``docker-compose pull``docker-compose up -d``version: '3.3'``services:`  `pg:`    `#image: ankane/pgvector:v0.5.0 # git`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云`    `container_name: pg`    `restart: always`    `ports: # 生产环境建议不要暴露`      `- 5432:5432`    `networks:`      `- fastgpt`    `environment:`      `# 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果`      `- POSTGRES_USER=username`      `- POSTGRES_PASSWORD=password`      `- POSTGRES_DB=postgres`    `volumes:`      `- ./pg/data:/var/lib/postgresql/data`  `mongo:`    `#image: mongo:5.0.18`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云`    `container_name: mongo`    `restart: always`    `ports: # 生产环境建议不要暴露`      `- 27017:27017`    `networks:`      `- fastgpt`    `environment:`      `# 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果`      `- MONGO_INITDB_ROOT_USERNAME=username`      `- MONGO_INITDB_ROOT_PASSWORD=password`    `volumes:`      `- ./mongo/data:/data/db`  `fastgpt:`    `container_name: fastgpt`    `#image: ghcr.io/labring/fastgpt:latest # git`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云`    `ports:`      `- 3000:3000`    `networks:`      `- fastgpt`    `depends_on:`      `- mongo`      `- pg`    `restart: always`    `environment:`      `# root 密码,用户名为: root`       `# root 密码,用户名为: root`      `- DEFAULT_ROOT_PSW=1234`      `# 中转地址,如果是用官方号,不需要管。务必加 /v1`      `- OPENAI_BASE_URL=http://ip:端口/v1`      `- CHAT_API_KEY=sk-xxxx`      `- DB_MAX_LINK=5 # database max link`      `- TOKEN_KEY=any`      `- ROOT_KEY=root_key`      `- FILE_TOKEN_KEY=filetoken`      `# mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin`      `- MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin`      `# pg配置. 不需要改`      `- PG_URL=postgresql://username:password@pg:5432/postgres`    `volumes:`      `- ./config.json:/app/data/config.json

3、访问服务

服务启动后,可通过ip:端口的方式访问。

One-API服务部署

one-api服务作为大模型服务代理,支持国内外主流的大模型服务,对外提供openai规范的api,可采用openai的协议或开源组件进行调用。(目前已支持 Azure、Anthropic Claude、Google PaLM 2 & Gemini、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360 智脑以及腾讯混元)

这里也使用docker-compose方式部署one-api服务

  • 访问项目地址下载源码,获得docker-compose.yml文件
#注意修改文件中指定端口避免冲突!``#拷贝至指定目录``mkdir /oneapi``cp docker-compose.yml /oneapi``cd /oneapi``#文件同级目录执行命启动容器``docker-compose up -d

  1. 启动完成后通过ip端口访问控制台

  1. 点击渠道,配置我们的GPT账号

3.点击测试验证是否可用

4.点击令牌,添加新的令牌,用于配置到FastGPT

5.点击复制令牌(sk-xxxx),配置到FastGPT安装目录下的docker-compose.yml文件中

修改fastgpt的config.json配置文件,需要与渠道模型名称对应,(如果渠道不支持此模型则请求会失败)

{`  `"SystemParams": {`    `"pluginBaseUrl": "",`    `"vectorMaxProcess": 15,`    `"qaMaxProcess": 15,`    `"pgHNSWEfSearch": 100`  `},`  `"ChatModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35-turbo",`      `"price": 0,`      `"maxContext": 16000,`      `"maxResponse": 4000,`      `"quoteMaxToken": 2000,`      `"maxTemperature": 1.2,`      `"censor": false,`      `"vision": false,`      `"defaultSystemChatPrompt": ""`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "gpt-4-turbo",`      `"maxContext": 8000,`      `"maxResponse": 8000,`      `"price": 0,`      `"quoteMaxToken": 4000,`      `"maxTemperature": 1.2,`      `"censor": false,`      `"vision": false,`      `"defaultSystemChatPrompt": ""`    `}`  `],`  `"QAModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35-turbo",`      `"maxContext": 16000,`      `"maxResponse": 16000,`      `"price": 0`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 16000,`      `"maxResponse": 16000,`      `"price": 0`    `}`  `],`  `"CQModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35",`      `"maxContext": 4000,`      `"maxResponse": 4000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 8000,`      `"maxResponse": 8000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `}`  `],`  `"ExtractModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35",`      `"maxContext": 16000,`      `"maxResponse": 4000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `}`  `],`  `"QGModels": [`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 1600,`      `"maxResponse": 4000,`      `"price": 0`    `}`  `],`  `"VectorModels": [`    `{`      `"model": "text-embedding-ada-002",`      `"name": "Embedding-2",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `},`     `{`      `"model": "text2vec-large-chinese",`      `"name": "text2vec-large-chinese",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `},`     `{`      `"model": "m3e",`      `"name": "m3e",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `}``   `  `],`  `"ReRankModels": [],`  `"AudioSpeechModels": [`    `{`      `"model": "tts-1",`      `"name": "OpenAI TTS1",`      `"price": 0,`      `"voices": [`        `{ "label": "Alloy", "value": "alloy", "bufferId": "openai-Alloy" },`        `{ "label": "Echo", "value": "echo", "bufferId": "openai-Echo" },`        `{ "label": "Fable", "value": "fable", "bufferId": "openai-Fable" },`        `{ "label": "Onyx", "value": "onyx", "bufferId": "openai-Onyx" },`        `{ "label": "Nova", "value": "nova", "bufferId": "openai-Nova" },`        `{ "label": "Shimmer", "value": "shimmer", "bufferId": "openai-Shimmer" }`      `]`    `}`  `],`  `"WhisperModel": {`    `"model": "whisper-1",`    `"name": "Whisper1",`    `"price": 0`  `}``}

重启fastgpt服务生效

#执行命令重启fastgpt服务``cd /fastgpt``docker-compose restart

5.测试FastGPT

登录fastgpt,创建知识库,选择我们添加的模型版本进行预览测试。具体fastgpt使用请参考官网链接

私有化m3e向量模型

通过RAG技术原理图可以了解,向量模型和向量数据库的用途,在对知识或问题进行向量转换时需要使用到向量模型服务,FastGPT默认使用的openai的text-embedding-ada模型,考虑到成本、安全和转换性能问题,可以使用 M3E 向量模型进行私有化部署。向量模型属于小模型,资源使用不高,CPU 也可以运行。

  1. 部署向量模型服务镜像,如下为m3e服务的docker-compose.yml,运行启动即可
version: '1'``services:`  `m3e:`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/m3e-large-api:latest`    `restart: no`    `ports:`      `- "6008:6008"

  1. 接入one-api服务

登录one-api控制台,添加m3e渠道

  1. 接入fastgpt

修改fastgpt config.json配置文件,加入m3e模型

"VectorModels": [`    `{`      `"model": "text-embedding-ada-002",`      `"name": "Embedding-2",`      `"price": 0.2,`      `"defaultToken": 500,`      `"maxToken": 3000`    `},`    `{`      `"model": "m3e",`      `"name": "M3E(测试使用)",`      `"price": 0.1,`      `"defaultToken": 500,`      `"maxToken": 1800`    `}``]

  1. 测试效果

使用FastGPT创建知识库,选择m3e模型

导入数据

测试搜索结果

基于FastGPT搭建知识库示例

官方参考文档

写在最后

更多实操内容,期待后续陆续输出,欢迎大家关注交流!!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

-END-


如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 22
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值