RAG在长上下文模型时代仍然相关

虽然 RAG 仍将是生产应用程序的主要内容,但 Gemini 1.5 Pro 和类似模型将帮助企业数据科学团队。

译自 RAG: Still Relevant in the Era of Long Context Models,作者 Shahebaz Mohammad。

Google 最近发布了 Gemini 1.5 Pro,这是一款 大型语言模型,拥有庞大的百万令牌上下文窗口。这在人工智能社区引起了轰动,一些人称其为“RAG 杀手”。

在我们急于为检索增强生成 (RAG) 撰写悼词之前,让我们深吸一口气,从企业角度分析一下情况。极长的上下文窗口可能会让数据科学团队更快地获得工作管道,但部署速度优势是否能证明在生产中运行成本高出许多倍的应用程序是合理的?

可能不会。

企业需要在小范围内实现高性能的应用程序。这意味着选择和定制一个合适的底层模型以及围绕它的整个支持 LLM 系统 生态系统。高度定制的 RAG 系统只是为高吞吐量任务提供了更好的价值。

但这些技术可以共存。虽然 RAG 仍将成为生产应用程序的主要内容,但 Gemini 1.5 Pro 和类似模型将帮助企业数据科学团队更快地进行实验和迭代。

RAG 的明显优势:更多令牌 = 更高成本

向大型语言模型 (LLM) 提示中注入更多上下文意味着要支付更多处理能力的费用——无论是通过 API 直接按令牌收费,还是通过计算资源的成本间接支付。因此,数据科学家和开发人员必须仔细考虑每项任务的正确上下文量。

在某种程度上,这是一个不错的问题。早期由 LLM 支持的应用程序通常使用整个上下文窗口,并且难以优化适合其中的上下文。随着上下文大小从 1,000 个令牌增加到 16,000 个令牌,现在增加到一百万个令牌,开发压力已经从优先考虑最重要的文档转移到决定性能提升不再证明额外文本价格合理的地方。

无论企业如何支付其 LLM 使用费,更多令牌意味着更高的运营成本。很少有任务需要一百万个令牌的上下文。

RAG 的模块化优势

基于 RAG 的应用程序的模块化架构提供了宝贵的灵活性。Gemini 与大多数 LLM 一样,是一个黑匣子。它无疑在某些主题和任务上表现良好,而在其他主题和任务上表现不佳。如果一个企业数据科学团队构建了一个使用 Gemini 1.5 的整个上下文窗口的应用程序,那么他们将很难用另一个模型替换 Gemini——至少在有可比的竞争对手进入市场之前。

基于 RAG 的应用程序并非如此。基于 RAG 的 LLM 系统允许数据科学团队根据其特定需求交换和 定制每个组件

Snorkel AI 最近与一家银行客户合作开展了一个基于 RAG 的项目。该客户需要该系统准确回答有关合同的问题。该项目从现成的组件(GPT-4 作为 LLM,LlamaIndex 作为 RAG)开始,准确率为 25%——与部署基准相差甚远。

在他们的第一个冲刺中,我们的工程师向应用程序添加了组件,以智能地分块和标记源文档。该应用程序的现成版本难以识别哪些文本包含日期。我们的团队添加了一个轻量级辅助模型,该模型明确标记了预测包含日期信息的文档块。他们还优化了提示模板,并在特定领域的​​数据上微调了嵌入模型。在短短三周内,他们将系统准确率提高到了 79%。

后来的工作将准确率提高到了 89%,但他们实现了前 54 分的提升,而根本没有修改现成的 LLM。这就是 RAG 模块化的力量。

更好的数据开发构建更好的 LLM 系统

如果没有由我们客户的主题专家指导的高质量数据开发,我们工程师的 64 分准确率提升是不可能的。

为了训练日期标记模型,我们需要示例段落,这些段落提到日期和没有提到日期。我们的工程师并不立即知道会遇到哪种微妙的日期引用,但主题专家知道。SME 识别出少量带有斜体或微妙日期引用的段落,并简要解释了他们标记它的原因。

在生产用例中,RAG 将获胜。其模块化、多点可定制性和相对成本效益使其成为企业人工智能的更好选择。

我们的工程师随后将 SME 的解释编码为 Snorkel Flow AI 数据开发平台中的标记功能。该平台快速标记了大量文档,然后我们的工程师根据 SME 的基本事实检查了其标记功能的准确性。这使他们能够识别出不足之处并进行迭代,直到他们生成一个能够训练高精度辅助模型的高质量数据集。

最终,我们客户的 SME 花费更多时间验证模型的准确性,而不是标记数据。

虽然这种数据开发在技术上可以通过非编程方法实现,但既不高效也不实用。

Gemini 1.5 的百万令牌上下文窗口的适用范围

虽然我不建议任何企业构建使用 Gemini 1.5 pro 的完整上下文窗口的生产 LLM 系统,但 Google 的值得注意的成就在企业 AI 开发中占有一席之地。

长上下文模型将加速更简单和预生产的用例。这正是当今的许多企业 AI!Gemini 和其他模型将使数据科学团队比现在更快地完成概念验证应用程序。一旦他们证明了这个概念,他们就可以继续构建一个基于 RAG 的强大、模块化且高度定制化的应用程序。

定制的 RAG > 生产应用程序中的长上下文

Gemini 1.5 代表了一项重大的技术成就。我赞扬 Google 的研究人员和工程师所做的一切。Gemini 和其他长上下文模型将在企业 AI 中占据重要地位。允许数据科学团队处理具有挑战性的单次问题并更快地完成应用程序的草稿将产生真正的业务价值。

但是,当涉及到生产用例时,RAG 将胜出。其模块化、多点可定制性和相对成本效益使其成为企业 AI 的更好选择。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的所有 ⚡️ 大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

全套 《LLM大模型入门+进阶学习资源包↓↓↓ 获取~

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值