本文是LLM系列文章, 针对《Alleviating Hallucinations of Large Language Models through Induced Hallucinations》的翻译。
摘要
尽管大型语言模型具有令人印象深刻的功能,但人们已经观察到它们会产生包括不准确或捏造信息的反应,这种现象通常被称为“幻觉”。在这项工作中,我们提出了一种简单的诱导然后对比解码(ICD)策略来缓解幻觉。我们首先通过从原始LLM中诱导幻觉来构建事实上较弱的LLM。然后,我们在解码过程中惩罚这些诱导的幻觉,以增强生成内容的真实性。具体来说,我们通过放大原始模型的预测并通过对比解码淡化诱导的不真实预测来确定最终的下一个表征预测。基于判别和基于生成的幻觉评估基准(如TruthfulQA和FACTSCORE)的实验结果表明,我们提出的ICD方法可以有效地提高各种模型大小和族的LLM的真实性。例如,当配备ICD时,Llama2-7B-Chat和Mistral-7B-Instruction在TruthfulQA上分别实现了与ChatGPT和GPT4相当的性能。