RAG等数据增强型LLM应用的4个任务级别

通过将外部知识与大语言模型(LLM)的集成,可以增强其在特定领域输出的专业性与时效性,减少幻觉问题,提高输出的可控性与可解释性。典型的方法如我们所熟知的RAG(Retrieval-Augmented Generation)应用与模型微调(Fine-tuning),都是常见的技术策略。

尽管随着RAG理论与技术的不断进步(如查询转换、融合检索、Agentic RAG、GraphRAG等),其表现已经愈趋成熟。但在实际应用中,输入任务的复杂性决定了很难存在单一技术可以一劳永逸的解决所有问题,从理解问题到检索数据、LLM推理等方面仍然存在诸多挑战,而这些挑战往往需要结合多种技术能力以更好的解决问题。

在微软的研究报告《Retrieval Augmented Generation (RAG) and Beyond: A Comprehensive Survey on How to Make your LLMs use External Data More Wisely》中,提出了一种对包括RAG在内的数据增强型LLM应用的查询任务的分层方法,将输入的查询任务根据需求分成了四个层次,对其进行了定义与解析,总结了不同层次的技术挑战与应对方案。本文将对其进行深入学习与理解。

解读RAG类应用的4个任务级别

根据复杂性与对数据的需求层次把输入的查询任务分成四个层次,不同的层次具有不同的任务目标、依赖数据、推理能力:

我们尝试对这里的每个层次进行深入理解与解释:

级别 1:基于显式事实的查询(Explicit Fact Queries)

  • 定义:此查询级别涉及对给定数据中直接存在的明确事实进行请求,用户希望获得具体、已知的信息,而不需要任何推理或逻辑推演。

  • 特点:这是最简单的查询形式,模型的主要任务是识别并提取出数据中清晰明确的事实。比如当用户提出问题时,借助RAG技术在数据分块中直接定位与问题相关的显性知识数据并回答。

  • 示例:查询“Canberra的所在国是哪个?”直接从已知信息中提取出“澳大利亚”这个直接答案。

  • 场景:适用于基本的知识问答,如词典定义、时间、地点等。由于查询涉及简单查找、判断与总结,因此模型无需复杂的计算或推理。

级别 2:基于隐式事实的查询(Implicit Fact Queries)

  • 定义:此查询涉及在数据中间接寻找事实,答案并非显而易见,通常需要一些常识推理或基础逻辑推理。

  • 特点:信息可能分散在多个部分,模型需要将多个线索整合起来形成一个完整的答案。也就是说,通常无法在单一的关联知识中直接找到答案。

  • 示例:例如,查询“C-Rag与Self-RAG在技术实现上哪个更复杂",需要首先学习两者的特点,然后进一步分析两者的区别与技术复杂度。再比如一些基于知识图谱(GraphRAG)的多跳查询问题等。

  • 适用场景:适合涉及背景关联和基本逻辑的查询,例如多步信息关联的常识问答场景。

级别 3:基于可解释原理的查询(Interpretable Rationale Queries)

  • 定义:此级别查询要求模型理解并应用与事实紧密关联的特定领域的原理,来推理出问题答案。

  • 特点:结合事实与特定领域的流程、规则、经验、指南等进行推理与响应,确保响应符合该领域的要求。这些领域的原理通常来自外部资源与上下文,并不直接包含在大模型的初始预训练数据中。

  • 示例

  • 合规审计时,参考监管合规指南来评估公司财务数据的合规性。

  • 医疗诊断时,参考权威的诊断标准并结合患者症状等进行推理诊断。

  • 客户支持时,参考预定的工作流程与规定,以有效处理客户咨询与投诉。

  • 适用场景:适用于内容审查、合规审计、技术支持等场景,在这些场景中,模型需要按照既定的规则或流程来确保回答的准确性和逻辑一致性。

级别 4:基于隐藏原理的查询(Hidden Rationale Queries)

  • 定义:此级别的查询要求模型基于上下文进行深层次的推理,从数据中揭示出潜在的含义或隐含的复杂原理,进而完成推理任务。

  • 特点:查询涉及未明确记录的深层次原理或逻辑联系,通常需要模型从外部数据中推理出隐含的规则与模式。这些隐藏的原理不仅是隐藏的逻辑本身,还需要首先识别出输入问题所依赖的外部原理。

  • 示例:

  • 根据给定的文本分类案例对新的文本进行分类

  • 根据历史运维经验识别新的运维事件,并给出解决方法

  • 根据财务数据与经济/财务原理推测经济形势对公司未来的影响

  • 适用场景:适用于高度复杂的决策场景,如IT运营、软件开发、事件预测等,模型通过综合的隐含见解给出基于经验的建议。

不同级别的技术挑战与应对

针对不同的任务级别,有着不同的挑战,也需要量身定制的技术方案:

来自https://arxiv.org/pdf/2409.14924

简单的事实查询(Level-1):其挑战在于精确的检索出相关的事实,因此基本的RAG是最常见的方法,其优化的环节主要是索引的创建以及检索阶段的精确性。

隐藏事实查询(Level-2):查询往往需要结合多个可能相关的事实进行推理,因此可能需要引入一些高级的RAG方法与模块,包括查询拆分、多次迭代的RAG,或者GraphRAG,甚至借助Text2SQL查询关联的结构化信息等。这些方法可以帮助获取多个关联的事实并连接,从而有助于输出正确响应。

基于可解释原理查询(Level-3):挑战在于如何有效的将外部原理整合到大模型,并让大模型能够遵循这些原理作出响应。通常直接把原理通过自然语言输入LLM可能效果不佳,目前的常见方法有:

  • 通过更轻量化的提示微调(Prompt-Tuning)技术,来对大模型进行引导以增强任务的适应性

  • 通过设计思维链(Chain-of-thoughts)、思维树(Tree-of-thoughts)的提示,引导模型做长链推理

  • 构建智能体(Agent)系统,借助ReAct等行为范式,结合记忆与工具等能力,让LLM能够根据环境完成复杂推理工作流。如借助反思来迭代优化结果、借助多智能体进行任务协助等,以提高输出质量。

隐藏原理查询(Level-4):这种级别查询问题的挑战之一是如何检索或者提供有效的外部数据,这是因为其需要的上下文并非表面的文本或语义相似性;需要的数据往往是分散的,或者需要提供明确的参考示例。常见的方法有:

  • 离线学习:核心思想是从案例中学习并积累通用的、有用的推理原理、规则、指南、经验、思考模板等,以增强大模型在后续任务中的表现

  • 上下文学习:通过提供上下文示例(few-shot)来引导模型完成任务的一种方法,无需模型参数调整,具有高度的适应性和灵活性

  • 模型微调:通过指令微调向预训练大模型注入新能力,对其在特定专业领域的知识与能力进行增强,提高其针对特定任务的能力

整体而言,把外部数据与知识"注入"到大模型的技术可以分为主要的三种方法:

来自https://arxiv.org/pdf/2409.14924

  • Context(上下文注入)

    这也是典型的RAG应用的技术原理。

  • 方法:基于查询从领域数据中提取相关部分,作为LLM的上下文输入。模型在生成响应时参考这些上下文数据,而不改变模型本身的参数。

  • 优势:无需对LLM进行再训练,便于快速适应不同任务和领域。

  • 应用场景:适合需要灵活切换领域信息、时效性要求高的任务。

  • Small Model(小模型辅助)

  • 方法:使用特定领域数据训练一个小模型,并让它辅助LLM的运行。小模型完成数据的检索、纠错、路由等任务,将整合后的信息输入到LLM中。

  • 优势:小模型能专注于处理领域特定任务,提高响应准确性。

  • 应用场景:适合复杂任务或需要数据预处理的场景,如医学或法律领域的数据查询。

  • Fine-tuning(微调)

  • 方法:直接使用外部领域知识对LLM进行微调。使用领域特定的数据集(例如法律数据)进行监督微调(SFT),将LLM转变为领域专家模型。

  • 优势:模型更深入地掌握该领域知识,能够提供更准确和专业的回答。

  • 应用场景:适合需要长期应用于特定领域的任务,例如法律、金融、医学等需要专业知识的领域。

在微软的这份研究报告中,对基于LLM的数据增强型应用的查询任务做了四个层次的划分,并深入探讨了不同层次的挑战与技术,有助于我们在实际项目中识别不同的任务特点,从而采用更具针对性的技术方案。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值