Alleviating Hallucinations of Large Language Models through Induced Hallucinations

515 篇文章 3 订阅

已下架不支持订阅

本文提出了一种名为诱导然后对比解码(ICD)的方法,旨在解决大型语言模型(LLM)在生成内容时产生的不准确或捏造信息(幻觉)问题。ICD通过诱导幻觉并随后在解码过程中减弱这些幻觉来增强生成内容的真实性。实验证明,ICD可以有效提高LLM的真实性,例如,Llama2-7B-Chat和Mistral-7B-Instruction在TruthfulQA上的表现与ChatGPT和GPT4相当。
摘要由CSDN通过智能技术生成

本文是LLM系列文章, 针对《Alleviating Hallucinations of Large Language Models through Induced Hallucinations》的翻译。

通过诱导幻觉减轻大型语言模型的幻觉

摘要

尽管大型语言模型具有令人印象深刻的功能,但人们已经观察到它们会产生包括不准确或捏造信息的反应,这种现象通常被称为“幻觉”。在这项工作中,我们提出了一种简单的诱导然后对比解码(ICD)策略来缓解幻觉。我们首先通过从原始LLM中诱导幻觉来构建事实上较弱的LLM。然后,我们在解码过程中惩罚这些诱导的幻觉,以增强生成内容的真实性。具体来说,我们通过放大原始模型的预测并通过对比解码淡化诱导的不真实预测来确定最终的下一个表征预测。基于判别和基于生成的幻觉评估基准(如TruthfulQA和FACTSCORE)的实验结果表明,我们提出的ICD方法可以有效地提高各种模型大小和族的LLM的真实性。例如,当配备ICD时,Llama2-7B-Chat和Mistral-7B-Instruction在TruthfulQA上分别实现了与ChatGPT和GPT4相当的性能。

1 引言

2 相关工作

3 诱导然后对比度解码

4 实验

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值