HELLO大家好,我是图欧君!
最近有小伙伴在群里说要求出一期关于AI知识库的教程,图欧君向来有求必应。
经过一番精心的筹备之后,这它不就来了~
一、前言
当今环境,所有人都面临一个问题:信息过载。不知道你是否曾经遇到过以下困扰?
- 在海量数据中搜索时,是否难以迅速找到所需的信息?
- 在面对日益增长的专业知识,是否感到知识管理的需求愈发迫切?
- 对于敏感数据的存储,是否时常害怕一不小心就会泄露关键信息?
- 在日常工作中,是否因为工作效率不高而觉得时间不够用?
如果这些场景让你感同身受,那么你一定在思考:是否存在一种方案,能够一举解决这些棘手的问题?
经过图欧君的研究,发现确实有这么一个方案,它就是基于 FastGPT 搭建本地私有化知识库,一个为你量身定制的知识管理解决方案。
下面图欧君将带领大家揭示如何结合FastGPT、大语言模型和向量模型,构建属于你自己的本地私有化知识库。
话不多说,正文开始。
二、安装部署FastGPT
什么是FastGPT?
FastGPT,是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!
推荐配置
为了满足广大用户的具体需求,FastGPT提供了PgVector、Milvus和zilliz cloud三种版本可供选择。我们可以根据自己的数据规模和性能要求,灵活地在Linux、Windows、Mac等不同的操作系统环境中部署合适的版本。
-
PgVector版本 —— 针对初体验与测试的完美起点
PgVector版本是进行初步体验和测试的理想选择。它简便易用,适合处理中小规模的向量数据,能够迅速掌握并开始工作。
-
Milvus版本 —— 专为千万级向量数据设计的性能强者
当数据处理需求升级至千万级以上,Milvus版本较之其他版本具有卓越的性能优势,是处理大规模向量数据的首选方案。
-
zilliz cloud版本 —— 亿级向量数据的专业云服务解决方案
对于处理亿级及更高量级的海量向量数据,zilliz cloud版本提供了专业的云服务支持,确保您能够获得高效且稳定的数据处理体验。得益于向量库使用了 Cloud,无需占用本地资源,无需太关注配置。
环境准备
FastGpt的部署重度依赖于Docker环境。因此,在本地系统或所管理的服务器上安装Docker环境是确保FastGpt顺畅运行的必要条件。
什么是Docker?
这么说吧,FastGpt就像一款需要特定玩具盒子才能玩的电子游戏。这个特定的玩具盒子的名字就叫“Docker”。所以,如果我们想在我们的电脑或服务器上顺利地运行FastGpt,就必须先安装这个玩具盒子,这样FastGpt才能正确地工作。
Windows 系统安装 Docker
-
使用 Docker Desktop
-
推荐使用 WSL 2 后端:可以通过 Docker 官方文档在 Windows 中安装 Docker Desktop。
具体步骤请参考:Docker WSL 2 安装指南。 -
使用命令行版本的 Docker
-
直接在 WSL 2 中安装:如果不希望使用 Docker Desktop,也可以选择在 WSL 2 中直接安装命令行版本的 Docker。
详细安装步骤请参考:WSL 2 Docker 安装指南。
macOS 系统安装 Docker
对于 macOS 用户,推荐使用 Orbstack 来安装 Docker。
-
通过 Orbstack 安装:访问 Orbstack 官网 按照指示进行安装。
-
通过 Homebrew 安装:
在终端运行以下命令:brew install orbstack
Linux 系统安装 Docker
在 Linux 系统上安装 Docker 的步骤如下:
-
打开终端,运行以下命令来安装 Docker:
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun systemctl enable --now docker
-
接着安装
docker-compose
:curl -L https://github.com/docker/compose/releases/download/v2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose chmod +x /usr/local/bin/docker-compose
-
验证安装是否成功:运行以下命令来验证 Docker 和 docker-compose 是否正确安装:
docker -v docker-compose -v
部署
- 下载
docker-compose.yml
文件
首先,我们需要访问 FastGPT 的 GitHub 仓库。在仓库的根目录中找到docker-compose.yml
文件。点击文件,然后点击 “Raw”(原始)按钮,文件内容将显示在浏览器中。接下来,右键点击页面,选择 “保存为”,将其保存到您的计算机上。 - 修改
docker-compose.yml
环境变量
使用文本编辑器(如记事本、Notepad++、VSCode 等)打开下载的docker-compose.yml
文件,接下来在文件中找到与向量库版本相关的部分。根据您选择的向量库(PgVector、Milvus 或 Zilliz),您需要修改相应的环境变量。注意:如果选择的是 Zilliz 版本,则需要找到包含
MILVUS_ADDRESS
和MILVUS_TOKEN
的行,将它们修改为您的 Milvus 服务地址和认证令牌,而另外的两个版本无需修改。 - 启动容器
打开命令行工具(如终端、命令提示符或 PowerShell)。
使用cd
命令切换到包含docker-compose.yml
文件的目录。例如:
然后运行以下命令来启动容器:cd path/to/your/docker-compose.yml/directory
这个命令会在后台启动所有定义在docker-compose up -d
docker-compose.yml
文件中的服务。 - 打开 OneAPI 添加模型
在浏览器中输入您的服务器 IP 地址后跟:3001
,例如http://192.168.1.100:3001
。
然后使用默认账号root
和密码123456
登录 OneAPI。登录后,根据指示添加 AI 模型渠道。 - 访问 FastGPT
在浏览器中输入您的服务器 IP 地址后跟:3000
,例如http://192.168.1.100:3000
。
使用默认用户名root
和在docker-compose.yml
文件中设置的DEFAULT_ROOT_PSW
密码登录 FastGPT。
三、搭建私有化知识库
当第一次打开网站时,我们会发现界面一片白花花的啥也没有。这个时候,不要慌,来跟我按照以下步骤来搞定你的第一个个人知识库!
- 在左侧菜单栏选择“知识库”选项。
- 点击页面右上角的“新建”,开始构建您的第一个知识库。
在此过程中,可以根据自身的需求选择合适的知识库类型。紧接着确定我们的知识库名称、索引模型和文件处理模型。
完成创建后,点击右上角的“新建/导入”,根据您的数据集类型选择相应的导入选项。
导入知识库数据
首先需要准备好知识库数据集,可以为 DOCX、TXT 或者 PDF 格式,然后选择文本数据集,选择本地文件导入。这里图欧君以咱们的IMYAI知识库为例子,进入飞书云文档《IMYAI智能助手使用手册》之后点击右上角导出为 Word 文档,文档权限我已经开放为人人都可以创建副本,导出下载,这个大可放心。
IMYAI知识库地址: https://new.imyai.top
等待数据处理并成功上传后,状态栏将显示“已就绪”,这时知识库搭建就完成了。
创建应用
知识库搭建完成之后就可以转到工作台栏进行应用的创建了,一共是提供了四种类型的应用可供我们选择,只需根据自己的需要选择合适的应用即可,图欧君在这里选择了简易应用做个示范。
左侧你可以对创建的应用进行一些配置,最后不要忘了把刚刚建立的知识库,关联进来。
完成配置之后,我们可以在右侧调试一下。比如我问他 “你知道TUO图欧君是谁吗?”,不难发现它会先从知识库中检索到相关信息再回答我。
如果在使用IMYAI智能助手的过程中遇到其他问题,也可以随时进行提问,它会根据知识库内容进行梳理总结,减少你寻找答案的时间(不过要记得,先导入知识库内容哦~)
通过对比不难看出,FastGPT这波回答的还是不错的,将原本的内容进行梳理整合之后重新输出,能够更加直观地找到解决问题的答案。
确认调试无误后,点击右上角的“发布”。发布成功后,就可以拥有一个基于本地私有知识库增强的LLM(大型语言模型)啦~
至此,一个私有化的个人知识库就搭建完成了,大家可以随时对知识库中的内容进行提问。
四、后记
如果你觉得本文的技术含量过高,无法实现的话,可以使用咱们主站(https://new.imyai.top)的自定义工作台功能,在预设里面粘贴你的文档数据,这样子也可以实现一个简单的私人小应用~
如果你已经迫不及待了,那就赶快试试吧~
感谢大家的支持与关注,更多精彩教程,敬请期待!