【RAG】OPEN-RAG:利用开源大模型增强检索增强推理

检索增强生成(RAG)已被证明可以提高大型语言模型(LLMs)的事实准确性,但现有方法在有效使用检索到的证据方面往往存在有限的推理能力,特别是当使用开源LLMs时。

引入了一个新颖的框架OPEN-RAG,增强基于开源大型语言模型的检索增强推理的能力,特别是处理复杂推理任务时的有限推理能力。

方法

1.LLMs转MOE

模型转换:OPEN-RAG将任意密集的LLM转换为参数高效的稀疏专家混合(MoE)模型。该模型不仅能够自我反思,还能处理复杂的推理任务,包括单跳和多跳查询。

路由器R从头开始训练。FFN层保持冻结状态,并由基于并行适配器的专家E进行调整。其他层被复制。

路由模块:路由模块负责根据输入的归一化输出选择Top-k专家。使用Softmax函数来计算每个专家的激活概率。

适配器模块:每个专家的适配器模块负责调整专家的输出,以更好地适应当前的查询。适配器模块的参数是在训练过程中更新的,而原始的FFN层参数保持不变。

输出:MoE模型的输出是激活的专家输出的加权和

训练策略:在微调过程中使用QLora适配器,它具有负载平衡目标和标准条件语言建模目标。在训练和推理期间,只有部分专家(例如2个专家)是活跃的

通过上述步骤,OPEN-RAG成功地将一个密集型的大型语言模型转换为一个参数高效的稀疏混合专家模型,使其能够更有效地处理复杂的推理任务。这种转换不仅提高了模型的性能,还保持了模型的规模和参数效率。

2.混合自适应检索

大型语言模型(LLMs)在处理复杂问题时,需要从外部知识源检索信息以提高回答的准确性。然而,频繁的检索会降低模型的推理速度,因此需要一种方法来动态决定是否需要进行检索。

提出了一种混合自适应检索方法,根据模型置信度确定检索的必要性,并在性能和速度之间取得平衡。该方法通过生成检索/无检索反射令牌来测量在强制无检索设置下输出的置信度,并根据这些置信度决定是否进行检索。

OPEN-RAG模型在训练时学习生成**检索(RT)不检索(NoRT)**反射令牌。在推理时评估模型生成的输出序列的置信度。

设计了两种不同的置信度评分函数:

  • fminp:输出序列中各个标记概率的最小值。

  • fmeanp:输出序列中各个标记概率的几何平均值。

    置信度评分函数

并且,使用一个可调的阈值γ来控制检索频率。如果置信度评分低于阈值γ,则触发检索。

3.推理过程

open-rag推理流程:首先,学习生成检索/不检索标记,对比相关和不相关上下文,并将答案归类为部分支持、完全支持或不支持。然后在推理时,给定一个(多跳)用户查询,首先强制模型在输入条件为不检索的情况下生成答案,并根据模型的置信度动态决定是否需要检索。

  1. 接收输入查询:模型接收一个用户输入的查询(q)。

  2. 生成检索令牌:模型首先判断是否需要进行检索来更好地回答这个查询,并生成相应的检索令牌([RT]/[NoRT])。

  3. 无检索生成答案:如果模型决定不需要检索([NoRT]),它将使用其内部知识(参数知识)来生成答案。

  4. 执行自适应检索:如果模型决定需要检索([RT]),则执行以下步骤:使用一个预定义的检索器从外部知识源检索最相关的文档。根据需要,可以执行单次检索或多跳检索。

  5. 处理检索到的文档:对于每个检索到的文档(s_t),模型执行以下操作:

  • 生成相关性令牌([Relevant]/[Irrelevant]),以判断文档是否与查询相关。

  • 如果文档相关,生成基础令牌([Fully Supported]/[Partially Supported]),以指示答案的准确性。

  • 生成效用令牌([U:1]-[U:5]),以评估文档对回答查询的有用性。

  1. 生成答案:模型并行处理所有检索到的文档,并根据相关性、基础和效用令牌的加权置信度分数对所有可能的答案进行排序。选择排名最高的答案作为最终输出。

  2. 输出最终答案:模型输出最终的答案。

实验

实验数据收集:为了使OPEN-RAG能够处理无需检索的查询以及需要检索的单跳和多跳查询,研究者构建了包含各种类型任务和数据集的训练数据。对于每个原始数据对(q,y),研究者使用真实标注或批评LLM生成带有反射令牌的新实例。

OPEN-RAG在所有监督微调的LLMs中展示了显著的性能提升,甚至在许多较大的模型(如65B CoVE)上也表现出色。特别是在多跳推理任务中,如HotpotQA

OPEN-RAG在有检索的开源RAG模型中也表现出色,始终优于现有的开源RAG模型,并且在大多数任务中达到了与专有模型相当的水平。

在大模型时代,我们如何有效的去学习大模型?

现如今大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
在这里插入图片描述

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也_想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把都打包整理好,希望能够真正帮助到大家_。

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,下面是我整理好的一套完整的学习路线,希望能够帮助到你们学习AI大模型。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述

三、AI大模型经典PDF书籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

在这里插入图片描述

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型各大场景实战案例

在这里插入图片描述

结语

【一一AGI大模型学习 所有资源获取处(无偿领取)一一】
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值