大模型 | RAG检索:最新研究成果,内存MemLong增强检索

在这篇文章中,作者介绍了 MemLong:用于长文本生成的记忆增强检索 (MemLong),一种旨在通过利用外部检索器进行历史信息检索来增强长上下文语言建模能力的方法。

大型语言模型(LLMs)近年来在各个领域取得了显著成功,但在处理长文本方面仍面临着严峻挑战。这些挑战主要源于两个方面:注意力机制的计算复杂度和生成过程中的内存消耗。

传统的注意力机制具有二次时间和空间复杂度,可表示为:O(n^2),其中n为序列长度。这导致在处理长序列时计算资源需求呈平方增长。同时,在生成过程中,模型需要缓存key-value对,其内存占用随序列长度线性增长。

对于检索增强生成(RAG)来说,当检索到的信息长度超过模型的处理能力时,RAG甚至可能会降低生成性能(黄色)。

面对上述挑战,本研究的主要目标是开发一种能够有效处理长文本的语言建模方法,同时在扩展上下文长度的同时保持模型在短文本上的性能,并提供一种计算效率高、易于实施的解决方案。MemLong 的内存和检索过程如下图所示:

关键思想:

  • 提出 MemLong,一种高效、轻量级的方法,用于扩展 LLMs。

  • 这个想法是将过去的上下文和知识存储在一个不可训练的内存库中,并进一步利用这些存储的嵌入来检索块级键值 (K-V) 对,以便输入到模型中。

  • MemLong 适用于任何仅限解码器的预训练语言模型,方法是包含用于内存和检索的附加 ret-mem 组件和用于集成局部和内存信息的检索因果注意力模块。

MemLong,结合一个非可微分的检索-记忆模块和一个部分可训练的解码器语言模型,来增强长文本上下文的语言建模能力。

MemLong利用外部检索器来检索历史信息,并通过细粒度、可控的检索注意力机制,将语义级别的相关信息块整合到模型中。这种方法不仅提高了模型处理长文本的能力,还保持了信息分布的一致性,避免了训练过程中的分布偏移问题。

MemLong的一个示例:在底层,模型保持静态,对整个数据块Ci进行因果语言建模,随后,Ci被缓存为嵌入和键值对(K-V)形式。最后,上层进行微调,以协调检索偏好并整合检索到的内容。

论文:https://arxiv.org/pdf/2408.16967
代码:https://github.com/Bui1dMySea/MemLong/blob/main/run_clm_no_trainer.py

最后分享

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型面试题

面试,不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

在这里插入图片描述
如有侵权,请联系删除。

  • 12
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值