本文是LLM系列文章,针对《A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions》的翻译。
摘要
大型语言模型(LLM)的出现标志着自然语言处理(NLP)的重大突破,在文本理解和生成方面取得了显著进步。然而,在这些进步的同时,LLM表现出产生幻觉的严重趋势,导致内容与现实世界的事实或用户输入不一致。这一现象对LLM的实际部署提出了重大挑战,并引发了人们对LLM在现实世界场景中的可靠性的担忧,这引起了人们对检测和缓解这些幻觉的日益关注。在这项调查中,我们旨在对LLM幻觉领域的最新进展进行全面深入的概述。我们从LLM幻觉的创新分类法开始,然后深入研究导致幻觉的因素。随后,我们对幻觉检测方法和基准进行了全面的概述。此外,还相应地介绍了旨在减轻幻觉的代表性方法。最后,我们分析了突出当前局限性的挑战,并提出了悬而未决的问题,旨在为未来LLM中幻觉的研究指明道路。