目录
2.在 InternLM Studio 上部署茴香豆技术助手
笔记
视频地址:茴香豆:搭建你的 RAG 智能助理_哔哩哔哩_bilibili
文档链接:Tutorial/huixiangdou/readme.md at camp2 · InternLM/Tutorial (github.com)
作业小练习链接:Tutorial/huixiangdou/homework.md at camp2 · InternLM/Tutorial (github.com)
引言
为什么要使用RAG?以及什么是RAG?
举个🌰:
这里问题是:huixiangdou是什么?【这个属于新增知识】
- 如左图:回答其实已经开始胡编乱造,出现hallucination了
- 如右图:使用了RAG,在没有额外训练的情况下,能正确回答问题啦!
什么是RAG?
通俗一点来说,可以将RAG看成一个搜索引擎,用户输入的内容作为索引,在外部知识库中搜索该内容,结合大语言模型的能力生成回答。
三个重要的部分:Indexing,Retrieval,Generation.(索引,检索,生成)
补充知识点-向量知识库(Vector-DB)
- 向量表示的优化,会直接影响RAG的结果好坏
从这里开始会有很多内容来自下面这篇survey,感兴趣的小伙伴们可以看看!
Survey Link: https://arxiv.org/abs/2312.10997https://arxiv.org/abs/2312.10997
RAG工作流具体示意
LLM回答的内容,经过RAG之后,均会来自其调用的相关数据库。
RAG常见优化方法
- 嵌入优化,索引优化--对向量数据库的优化
- 查询优化和上下文管理,分别为Advanced RAG范式中的前检索,以及后检索部分。
RAG v.s. 微调(Tuning)
从对外部知识的需求,任务对模型适配度的这两个方面进行考量:
- Fine-tuning: 对外部需求不高,但要求任务对模型适配度高的情况
三种方法集合在一起,当然能做一个更综合的trade-off。
RAG评测
茴香豆介绍
下图为茴香豆的工作流
一些小练习
Task1
1. 在茴香豆 Web 版中创建自己领域的知识问答助手
- 参考视频零编程玩转大模型,学习茴香豆部署群聊助手
- 完成不少于 400 字的笔记 + 线上茴香豆助手对话5轮
Step1:登录网页端(OpenXLab浦源 - 应用中心)- 创建自己的知识库(比如:这里举了个例子,如下图上传一个pdf file)
Step2:与线上茴香豆助手对话5轮
Bonus Task 集成开发飞书
参考链接:Docshttps://aicarrier.feishu.cn/docx/H1AddcFCioR1DaxJklWcLxTDnEc
Step1:将AppID与AppSecret填入对应的红框位置,然后“保存凭证”。
注:
这红框三个都要勾选哦!!!
Task 2
2.在 InternLM Studio
上部署茴香豆技术助手
- 根据教程文档搭建
茴香豆技术助手
,针对问题 "茴香豆怎么部署到微信群?"进行提问并截图
注:
- 可以用sed方式更改配置文件
- sed linux命令:利用脚本的方式处理文件(Linux sed 命令 | 菜鸟教程)
- 创建知识库
- 特征提取
其他优秀参考资料
- 茴香豆也可以接入微信
参考文档:茴香豆零编程接入微信 - 知乎