一种模型架构:巧妙整合从庞大知识库中检索到的信息,以此提高大模型回答的准确性与深度。
一、RAG对大模型的辅助作用
1.RAG通过对大量,多方位,全面的数据的检索,改善LLM幻觉问题,增强其推理能力,拓宽LLM应用场景(提高适应性)
2.实时检索最新数据,保持生成内容时效性
3.链接生成内容与检索到的原始资料,增强内容可追溯性
4.检索特定领域相关数据,提高回答专业性
5.检索整合长文本信息,提高LLM长文本输入的处理能力
二、RAG工作流程
处理 检索 增强 生成
1.转化(如何转化?)输入的原始数据,使其变为模型可使用的格式(什么格式?),并存储在对应的数据库(如何搭建?)中
2.根据用户问题在数据库中检索(怎样检索?)相关信息
3.对检索到的信息进行处理(二次处理?两次处理有何区别)和增强(怎样理解增强?)
4.增强后信息输入生成模型得到答案
三、RAG与微调对比
RAG相较于微调的优势有:
1.无需重新训练来更新信息,只需直接检索知识库即可实现更新(是否意味着要更新知识库,知识库如何更新?)
2.对数据处理和操作要求极低
3.通过链接,使回答有较好的可解释性和可追溯性
4.通过检索知识库的方式降低了产生幻觉的概率
四、RAG成功案例
在问答系统,对话系统,文档摘要,文档生成等多个领域取得了成功