茴香豆:搭建你的RAG智能助手学习笔记

一、了解RAG

概述:

RAG(Retrieval Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的技术,旨在通过利用外部知识库来增强大型语言模型(LLMs)的性能。它通过检索与用户输入相关的信息片段,并结合这些信息来生成更准确、更丰富的回答,解决LLMs在处理知识密集型任
务时可能遇到如幻觉、知识过时和缺乏透明、可追溯的推理过程等挑战。

应用方向:

问答系统、文本生成、信息检索、图片描述

工作原理:

Vector-DB叫做向量数据库,这里篇幅原因不再展开,其包括数据存储、相似性检索、以及对向量表示的优化。

发展进程:

一图胜千言:

优化方法:索引优化、查询优化、嵌入优化、上下文管理、LLM微调、迭代检索、递归检索、自适应检索

RAG vs 微调:

评估框架和基准测试:

二、项目实践

项目实践以开源项目茴香豆为学习对象

项目介绍:

那么我们现在开始:

第一步,配置基础环境:

进入开发机后,从官方环境复制运行 InternLM 的基础环境,命名为 InternLM2_Huixiangdou:

studio-conda -o internlm-base -t InternLM2_Huixiangdou

查看一下环境:

运行 conda命令,激活 InternLM2_Huixiangdou python虚拟环境:

conda activate InternLM2_Huixiangdou

后续操作均在InternLM2_Huixiangdou下进行

教程为方便我们学习,模型都已经存放在 Intern Studio 开发机共享文件share文件夹,这次学习选用 InternLM2-Chat-7B 作为基础模型,然后我们创建自己模型文件夹到share文件夹的软链接:

# 创建模型文件夹
cd /root && mkdir models

# 复制BCE模型
ln -s /root/share/new_models/maidalun1020/bce-embedding-base_v1 /root/models/bce-embedding-base_v1
ln -s /root/share/new_models/maidalun1020/bce-reranker-base_v1 /root/models/bce-reranker-base_v1

# 复制大模型参数(下面的模型,根据作业进度和任务进行**选择一个**就行)
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b

GPT命令总结:

执行结果:

安装茴香豆运行所需依赖以及克隆茴香豆代码仓库,并切换到指定版本:

# 安装 python 依赖
# pip install -r requirements.txt

pip install protobuf==4.25.3 accelerate==0.28.0 aiohttp==3.9.3 auto-gptq==0.7.1 bcembedding==0.1.3 beautifulsoup4==4.8.2 einops==0.7.0 faiss-gpu==1.7.2 langchain==0.1.14 loguru==0.7.2 lxml_html_clean==0.1.0 openai==1.16.1 openpyxl==3.1.2 pandas==2.2.1 pydantic==2.6.4 pymupdf==1.24.1 python-docx==1.1.0 pytoml==0.1.21 readability-lxml==0.8.1 redis==5.0.3 requests==2.31.0 scikit-learn==1.4.1.post1 sentence_transformers==2.2.2 textract==1.6.5 tiktoken==0.6.0 transformers==4.39.3 transformers_stream_generator==0.0.5 unstructured==0.11.2

## 因为 Intern Studio 不支持对系统文件的永久修改,在 Intern Studio 安装部署的同学不建议安装 Word 依赖,后续的操作和作业不会涉及 Word 解析。
## 想要自己尝试解析 Word 文件的同学,uncomment 掉下面这行,安装解析 .doc .docx 必需的依赖
# apt update && apt -y install python-dev python libxml2-dev libxslt1-dev antiword unrtf poppler-utils pstotext tesseract-ocr flac ffmpeg lame libmad0 libsox-fmt-mp3 sox libjpeg-dev swig libpulse-dev
cd /root
# 克隆代码仓库
git clone https://github.com/internlm/huixiangdou && cd huixiangdou
git checkout ded0551

GPT总结:

切换到指定版本

第二步,使用茴香豆搭建 RAG 助手:

修改配置文件:

用已下载模型的路径替换 /root/huixiangdou/config.ini 文件中的默认模型,共三处:

# 修改用于向量数据库和词嵌入的模型

sed -i '6s#.*#embedding_model_path = "/root/models/bce-embedding-base_v1"#' /root/huixiangdou/config.ini

# 用于检索的重排序模型

sed -i '7s#.*#reranker_model_path = "/root/models/bce-reranker-base_v1"#' /root/huixiangdou/config.ini

# 选用的大模型

sed -i '29s#.*#local_llm_path = "/root/models/internlm2-chat-7b"#' /root/huixiangdou/config.ini

结果如下:

GPT总结命令作用:

创建知识库:

本示例中,使用 InternLM 的 Huixiangdou 文档作为新增知识数据检索来源,在不重新训练的情况下,打造一个 Huixiangdou 技术问答助手

官方教程:首先,下载 Huixiangdou 语料,命令为:

cd /root/huixiangdou && mkdir repodir

git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou

我通过GPT让他解释命令含义:

做到这一步我就开始有了疑惑,这样怎么就算是下载了Huixiangdou 语料呢?

该问题最终在后续命令操作中以及GPT的帮助下有了新的认识,这里先按下不表

这里官方指出:

我们要做到是提取知识库特征,创建向量数据库。数据库向量化的过程应用到了 LangChain 的相关模块,默认嵌入和重排序模型调用的网易 BCE 双语模型,如果没有在 config.ini 文件中指定本地模型路径,茴香豆将自动从 HuggingFace 拉取默认模型。

除了语料知识的向量数据库,茴香豆还建立接受和拒答两个向量数据库,用来在检索的过程中更加精确的判断提问的相关性,避免消息过载,这两个数据库的来源分别是:(这也是我们接下来要做的准备工作)

  • 接受问题列表,希望茴香豆助手回答的示例问题
    • 存储在 huixiangdou/resource/good_questions.json 中
  • 拒绝问题列表,希望茴香豆助手拒答的示例问题
    • 存储在 huixiangdou/resource/bad_questions.json 中

没加入茴香豆相关问题前:

运行下面的命令,增加茴香豆相关的问题到接受问题示例中:

cd /root/huixiangdou
mv resource/good_questions.json resource/good_questions_bk.json

echo '[
    "mmpose中怎么调用mmyolo接口",
    "mmpose实现姿态估计后怎么实现行为识别",
    "mmpose执行提取关键点命令不是分为两步吗,一步是目标检测,另一步是关键点提取,我现在目标检测这部分的代码是demo/topdown_demo_with_mmdet.py demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py checkpoints/faster_rcnn_r50_fpn_1x_coco_20200130-047c8118.pth   现在我想把这个mmdet的checkpoints换位yolo的,那么应该怎么操作",
    "在mmdetection中,如何同时加载两个数据集,两个dataloader",
    "如何将mmdetection2.28.2的retinanet配置文件改为单尺度的呢?",
    "1.MMPose_Tutorial.ipynb、inferencer_demo.py、image_demo.py、bottomup_demo.py、body3d_pose_lifter_demo.py这几个文件和topdown_demo_with_mmdet.py的区别是什么,\n2.我如果要使用mmdet是不是就只能使用topdown_demo_with_mmdet.py文件,",
    "mmpose 测试 map 一直是 0 怎么办?",
    "如何使用mmpose检测人体关键点?",
    "我使用的数据集是labelme标注的,我想知道mmpose的数据集都是什么样式的,全都是单目标的数据集标注,还是里边也有多目标然后进行标注",
    "如何生成openmmpose的c++推理脚本",
    "mmpose",
    "mmpose的目标检测阶段调用的模型,一定要是demo文件夹下的文件吗,有没有其他路径下的文件",
    "mmpose可以实现行为识别吗,如果要实现的话应该怎么做",
    "我在mmyolo的v0.6.0 (15/8/2023)更新日志里看到了他新增了支持基于 MMPose 的 YOLOX-Pose,我现在是不是只需要在mmpose/project/yolox-Pose内做出一些设置就可以,换掉demo/mmdetection_cfg/faster_rcnn_r50_fpn_coco.py 改用mmyolo来进行目标检测了",
    "mac m1从源码安装的mmpose是x86_64的",
    "想请教一下mmpose有没有提供可以读取外接摄像头,做3d姿态并达到实时的项目呀?",
    "huixiangdou 是什么?",
    "使用科研仪器需要注意什么?",
    "huixiangdou 是什么?",
    "茴香豆 是什么?",
    "茴香豆 能部署到微信吗?",
    "茴香豆 怎么应用到飞书",
    "茴香豆 能部署到微信群吗?",
    "茴香豆 怎么应用到飞书群",
    "huixiangdou 能部署到微信吗?",
    "huixiangdou 怎么应用到飞书",
    "huixiangdou 能部署到微信群吗?",
    "huixiangdou 怎么应用到飞书群",
    "huixiangdou",
    "茴香豆",
    "茴香豆 有哪些应用场景",
    "huixiangdou 有什么用",
    "huixiangdou 的优势有哪些?",
    "茴香豆 已经应用的场景",
    "huixiangdou 已经应用的场景",
    "huixiangdou 怎么安装",
    "茴香豆 怎么安装",
    "茴香豆 最新版本是什么",
    "茴香豆 支持哪些大模型",
    "茴香豆 支持哪些通讯软件",
    "config.ini 文件怎么配置",
    "remote_llm_model 可以填哪些模型?"
]' > /root/huixiangdou/resource/good_questions.json

该命令mv resource/good_questions.json resource/good_questions_bk.json备份了一下good_questions.json文件

加入后:

再创建一个测试用的问询列表,用来测试拒答流程是否起效:

cd /root/huixiangdou

echo '[
"huixiangdou 是什么?",
"你好,介绍下自己"
]' > ./test_queries.json

该命令创建文件的作用,稍后就会显示出来

官方操作:在确定好语料来源后,运行下面的命令,创建 RAG 检索过程中使用的向量数据库:

# 创建向量数据库存储目录
cd /root/huixiangdou && mkdir workdir 

# 分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir
python3 -m huixiangdou.service.feature_store --sample ./test_queries.json

这一步将分别向量化知识语料、接受问题和拒绝问题中后保存到 workdir,之前按下不表的疑问,(下载Huixiangdou 语料,以及怎么被使用的问题)现在通过我的分析和GPT的帮助,有了自己的想法。这里要执行huixiangdou/service/feature_store.py这个脚本,并且传递进了一个参数./test_queries.json这个文件路径,对于feature_store.py这个脚本,分析如下

第一点,我们之前创建的test_queries.json文件用途,当传递 --sample ./test_queries.json 参数时,test_rejecttest_query 函数会使用该文件中的查询样本来测试拒绝和查询管道。./test_queries.json 文件应该包含一组查询,这些查询将被用于测试模型的性能

第二点,我们之前通过命令git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou克隆了最新版huixiangdou代码库并放进了新建立的文件夹repodir,在脚本扫描文件这一步,会扫描repo_dir 目录。repo_dir 目录的位置取决于你在运行 feature_store.py 脚本时传递的命令行参数。如果没有显式指定,它将使用默认值。默认情况下,repo_dir 的值是 'repodir'。所以我们存放进repodir文件夹的代码仓库便是我们需要的语料库。然后脚本会扫描指定目录中的文件,并将这些文件传递给特征存储初始化过程。

弄明白之后,脚本执行开始:

发生报错,缺少“duckduckgo-search”

安装!

重新执行python3 -m huixiangdou.service.feature_store --sample ./test_queries.json

又一个错误,config.ini文件检查第 31 行,出现 "local_llm_path" 键的定义被多次使用

修改文件:

再次重新执行python3 -m huixiangdou.service.feature_store --sample ./test_queries.json

顺利运行:

完成后,Huixiangdou 相关的新增知识就以向量数据库的形式存储在 workdir 文件夹下。

检索过程中,茴香豆会将输入问题与两个列表中的问题在向量空间进行相似性比较,判断该问题是否应该回答,避免群聊过程中的问答泛滥。确定的回答的问题会利用基础模型提取关键词,在知识库中检索 top K 相似的 chunk,综合问题和检索到的 chunk 生成答案。

运行茴香豆知识助手

测试效果:

# 填入问题
sed -i '74s/.*/    queries = ["huixiangdou 是什么?", "茴香豆怎么部署到微信群", "今天天气怎么样?"]/' /root/huixiangdou/huixiangdou/main.py

# 运行茴香豆
cd /root/huixiangdou/
python3 -m huixiangdou.main --standalone

结果如下:

对于问题"茴香豆怎么部署到微信群"   接受回答

对于问题"huixiangdou 是什么?"  接受回答

对于问题"今天天气怎么样?"    拒绝回答

到此完成了茴香豆知识助手的服务器端部署。

  • 52
    点赞
  • 47
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值