探索RAG(三)--RAG vs Fine-tuning

概要

由于大模型的日益普及,大模型的增加引起了相当大的关注。在LLM的优化方法中,RAG经常与微调(FT)和提示词工程(Prompt)相比较,RAG,Fine-tuning以及提示词工程都是用于加强模型在特定领域的性能。然而,他们具体有什么不同呢?

RAG vs FT vs Prompt

如下图所示(来源于《Retrieval-Augmented Generation for Large Language Models: A Survey》):
在这里插入图片描述
如图所示,每种方法都有不同的特征,我将从下面的表格具体比较这三种方式。

方法外部知识需求模型适应性需求参数变化优势不足
RAG需要构建外部知识数据库,用于检索上下文利用知识库进行信息检索相当于提供一个定制的教科书模型,非常适合精确的信息检索任务LLMs参数未变实时知识更新和有效利用具有高度可解释性的外部知识源,在动态环境中表现出色更高的延迟和有关数据检索的道德考虑
FT构建参与预训练的训练集通过特定的数据集,适用于需要复制特定结构,风格或格式的场景LLMs参数变化可以对模型的行为和风格进行深度定制,减少幻觉动态性差,当换领域时,必须重新制定训练集,耗费大量计算资源
Promot利用用户定制的提示词,约束模型的语言输出LLMs参数未变利用模型的固有能力,最小限度地需要外部知识和模型适应,减少工作量特定领域性能差

值得一提的是,RAG和FT并不是相互排斥的,可以相互补充,在不同的层面上增强模型的能力。在某些情况下,它们的组合使用可能会导致最佳性能。涉及RAG和FT的优化过程可能需要多次迭代才能获得令人满意的结果。

小结

在本节中,比较了RAG,FT,Prompt三种方式对LLMs的调教,各自有优缺点,将RAG与FT相结合可能是未来的主要方向。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

桔色的猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值