阿里:LLM的层级相关传播检测RAG幻觉

在这里插入图片描述

📖标题:LRP4RAG: Detecting Hallucinations in Retrieval-Augmented Generation via Layer-wise Relevance Propagation
🌐来源:arXiv, 2408.15533

摘要

🔸检索增强生成(RAG)已成为减轻大型语言模型(LLM)中幻觉的主要技术。然而,不完整的知识提取和不充分的理解仍然会误导LLM产生不相关甚至矛盾的反应,这意味着幻觉在RAG中持续存在。
🔸在本文中,我们提出了LRP4RAG,这是一种基于分层相关传播(LRP)算法的方法,用于检测RAG中的幻觉。具体来说,我们首先利用LRP来计算RAG生成器的输入和输出之间的相关性。然后,我们对相关性矩阵进行进一步的提取和重采样。处理后的相关性数据被输入到多个分类器中,以确定输出是否包含幻觉。
🔸据我们所知,这是LRP首次用于检测RAG幻觉,大量实验表明LRP4RAG优于现有基线。我们的代码和数据集存放在https://github.com/Tomsawyerhu/LRP4RAG.

🛎️文章简介

🔸研究问题:在检索增强生成(RAG)过程中,大语言模型(LLM)依旧会产生幻觉。
🔸主要贡献:论文提出了LRP4RAG方法,通过层级相关传播(LRP)技术来检测RAG中的幻觉,并在实验中展示了其优于现有基线方法的性能。

📝重点思路

🔺相关工作

🔸LLM幻觉:①输入冲突幻觉,偏离用户输入 ②上下文冲突幻觉,没有对上下文的了解或在对话过程中无法保持一致性 ③事实幻觉,与既定世界知识相矛盾。
🔸幻觉检测:检测特定自然语言生成任务中的幻觉,如机器翻译、对话生成和问答,包括基于扰动的方法、基于不确定性估计的方法和基于LLM内部状态的方法。
🔸RAG:从外部知识库检索相关文档块来增强LLM,虽然有效地减少了幻觉,但上下文不足、文档排名问题和模型不适配长上下文信息,都会导致RAG输出质量下降而产生幻觉。

🔺论文方案

🔸主要思想:给定检索到的上下文C、问题Q和提示T,生成器得到答案A,利用(C,Q,T)和A的相关性检测幻觉。
🔸层级相关传播(LRP):使用LRP算法进行相关性分析,从语言模型的输出概率分布反向传播到输入,得到相关性矩阵。
🔸相关性重采样:由于RAG生成器的输入和输出长度不同,采用均值重采样方法对相关性向量进行归一化,以保持固定长度并最小化原始信息的损失。
🔸分类器训练:使用支持向量机(SVM)和长短期记忆网络(LSTM)结合的分类器,对重采样后的相关性矩阵进行幻觉检测训练。
🔸模型评估:在RAGTruth上进行实验,该数据集包含人工标注的RAG样本,提供了幻觉样本和正常样本的对比。

🔎分析总结

🔸相关性差异:RAG幻觉样本的相关性较低,响应标记比提示标记更适合用于幻觉检测,因为提示包含更多噪声。
🔸模型大小:对于一般LLM的幻觉检测,仅考虑响应标记就足够有效,但规模较大的LLM的相关性分布会变化导致更难检测,提示标记更适合幻觉检测。
🔸性能分析:LRP4RAG在准确性和精确度上表现优于其他基线方法,尽管召回率有所下降,但仍比直接微调LLMs的结果高出约20%。

💡个人观点

论文的核心是通过层级相关传播,计算输入到输出的令牌相关性来检测幻觉。

附录

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大模型任我行

随意啦,喜欢就好~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值