Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models

515 篇文章 3 订阅

已下架不支持订阅

18 篇文章 10 订阅

本文是LLM系列文章,针对《Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models》的翻译。

基于大语言模型的检索增强生成中的提示扰动

摘要

随着大型语言模型在广泛领域的使用迅速增长,其稳健性变得越来越重要。检索增强生成(RAG)被认为是提高LLM文本生成可信度的一种手段。然而,基于RAG的LLM的输出如何受到略有不同的输入的影响还没有得到很好的研究。在这项工作中,我们发现,即使在提示中插入一个短前缀,也会导致生成远离事实正确答案的输出。我们通过引入一种名为梯度引导提示扰动(GGPP)的新优化技术,系统地评估了这些前缀对RAG的影响。GGPP在将基于RAG的LLM的输出引导到有针对性的错误答案方面实现了高成功率。它还可以处理提示中请求忽略无关上下文的指令。我们还利用LLM在有GGPP扰动和没有GGPP扰动的提示之间的神经元激活差异,提出了一种方法,通过对GGPP生成的提示触发的神经元激活进行高效检测器训练,提高基于RAG的LLM的鲁棒性。我们对开源LLM的评估证明了我们方法的有效性。

1 引言

2 相关工作

3 梯度引导的提示扰动

4 对抗性前缀的检测

5 实验

6 结论

本文开始研究基于RAG的LLM在提示扰动下的鲁棒性问题。我们给出了一种梯度引导的方法来干扰用户提示,这导致了对用户查询中包含事实错误的目标文本段落的检索。由于RAG被认为比LLM更值得信赖,因为数据可以从可靠的来源进行策划,我们的工作表明,

  • 10
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值