揭秘LLM的幻觉问题及其解决之道

一、幻觉简介

LLM 时常会出现一些神奇的现象——幻觉 Hallucination,在 AI 领域,幻觉是指模型生成的信息可能不真实不准确,这是一个常见的问题,而 Truthfulness 指的是模型输出的真实性或者叫可靠性,显然如果模型输出的真实性越高,那么出现幻觉的概率就是越低的。

下面展示了 LLM 常见的几个衡量指标,今天我们主要来关注一下可靠性中的幻觉

  • 可靠性
    • Misinformation 错误信息
    • Hallucination 幻觉
    • Inconsistency 矛盾
    • Miscalibration 校准误差
    • Sycophancy 谄媚
  • 安全性
  • 公平性
  • 抗滥用性
  • 可解释性和推理性
  • 遵守社会规范
  • 稳健性

二、可靠性的五个方面

3.1 Misinformation 错误信息

定义:我们在这里将 Misinformation 定义为是由 LLM 无意生成的,而不是故意生成来对用户造成伤害的,因为 LLM 缺乏提供事实正确信息的能力。另外,我们可能会直观的认为 LLM 只会在有挑战性的问题上犯错,但事实上,有时 LLM 即使对于简单的问题也无法提供正确的答案,至少在没有复杂的 Prompt 设计的情况下是这样的,这也一定程度上说明了好的 Prompt 设计的重要性,所以让我们耐心的向 LLM 提问吧(笑)。

原因:虽然 LLM 产生不真实答案的原因没有一个公认的原因,但存在一些猜测:

  • 原生性问题:因为训练数据不会完美,所以错误信息很可能已经存在,甚至可能在互联网的传播上得到强化

  • 共现诱导:大量实体的共现是从 LLM 中提取的不正确知识的原因之一,举个例子,小明和小红经常出现在同一篇文章里,模型可能会认为小明和小红是情侣,然而实际情况并不是这样

  • 罕见知识:LLM 在记忆不常见的实体和关系不太精确,如果利用检索到的外部非参数知识来预测不常见的事实的话会更好,在这时,检索模型比语言模型效果好

  • 模型之间亦有差别:对于 LLM 是否可以通过提示中提供的信息更新他们记忆的事实,有些模型可以,而有些不行

3.2 Hallucination 幻觉

定义:LLM 可以信心满满地生成毫无意义或不忠实于所提供的源内容的内容,这在 LLM 中被称为幻觉。在心理学文献中,类似的现象被称为虚构,即无意欺骗的错误记忆,有时是由脑损伤引起的。请注意,幻觉和错误信息之间是有区别的:

  • 错误信息大多意味着错误或有偏见的答案,通常可能是由于错误的信息输入引起的

  • 但幻觉可能由与源内容相冲突的捏造内容(内在幻觉)或无法从现有来源验证(外在幻觉)组成。

原因:梅开二度,产生幻觉的确切原因尚不清楚,不过也同样有一些猜测:

  • 数据不匹配:可能是由源训练数据和测试数据之间的不匹配或分布偏移引起。一些 NLP 任务自然需要源输入文本和目标参考之间存在一些不匹配,例如 Chat 风格的开放域对话。当 LLM 的置信度被错误校准时,幻觉也可能发生,这通常是由于缺乏人类监督、对齐示例覆盖率低以及监督数据本身固有的模糊性造成的

  • 训练机制:此外,幻觉可能是由潜在的训练机制引起的,包括但不限于对下一个标记进行采样时引入的随机性、编码和解码中的错误、不平衡分布的训练偏差以及对记忆信息的过度依赖等

评估与检测:评估和检测幻觉仍然是一个正在进行的领域,常见的评估任务有:

  • 文本摘要:LLM 输出与参考文本之间的标准文本相似度是一个简单的指标,例如 ROUGE 和 BLEU

  • QA:LLM 回答问题,我们计算 LLM 答案和真实答案之间的文本相似度

  • 分类器:训练真实性分类器来标记 LLM 输出

  • 人工评估:人工评估仍然是最常用的方法之一,这没得说

解决方法:减轻幻觉也没有一种定式说应该如何解决最好,目前有的方法例如:

  • 提高训练数据质量:构建更可靠的数据集和数据清理

  • 基于不同的任务在 RLHF 中使用不同的奖励:在 Chat 中,Alignment 的奖励是生成的模板与从输入中提取的槽值对之间的差异。在文本摘要中,通过结合 ROUGE 和多项选择完形填空得分来设计奖励,以减少摘要文本中的幻觉。

  • 外部知识库:显然,利用外部知识库辅助检索也可以有不错的效果

3.3 Inconsistency 矛盾

定义:LLM 可能无法向不同用户、不同会话中的同一用户,甚至同一对话的会话内的聊天中提供相同且一致的答案,这就是矛盾,想必大家都遇到过。

原因:帽子戏法,不一致的确切原因尚不清楚,但随机性肯定发挥了作用,包括但不限于:

  • 采样 token
  • 模型更新
  • 平台内隐藏操作
  • 硬件规格的随机性

这表明 LLM 在推理能力方面可能仍然落后,这要求用户在 Prompt 时小心谨慎,从而提高了使用 LLM 获得正确答案的门槛。此外,训练数据中令人困惑和相互矛盾的信息肯定是原因之一,由此产生的不确定性增加了对下一个标记进行采样时的随机性产生输出。

解决方法:关于如何提高 LLM 的 alignment 已经有一些讨论:

  • 使用由不同输入表示的模型输出定义的一致性损失来调节模型训练

  • 强制 LLM 自我提高一致性的另一种技术是通过思维链(COT)它鼓励 LLM 为其最终答案提供逐步解释

3.4 Miscalibration 校准误差

定义:LLM 由于其固有的局限性,导致对缺乏客观答案的主题和不确定性的领域可能会表现出过度自信,这是应当警惕的。这种过度自信表明模型对知识库缺乏认识,从而导致自信但错误的回答。

原因:大四喜最终还是没有出现,这种过度自信的问题部分源于训练数据的性质,训练数据通常包含了互联网数据中固有的两极分化观点。

解决方法

  • 有一种针对 Chat 模型的校准方法,鼓励这些模型在提供不正确的响应时表达较低的置信度

  • 还有一种将标准神经网络中的 Softmax 输出重新调整的方法

然而,这些校准方法通常会带来权衡,对校准 Transformer 的实证研究表明,尽管域外任务略有改善,但域内性能却恶化了。对于 LLM,我们其实有两种方法来计算不确定性

  • 首先,如下图所示,LLM 在有针对性的 Prompt 时,确实可以以文本形式输出自己的置信度

image

  • 其次,我们也可以通过以下方式获取 LLM 的置信度:token 的 logits,尽管某些平台可能不允许用户访问它们,例如 ChatGPT 和 GPT-4

  • Alignment 步骤有助于遏制过度自信,这些研究强调教学模式以语言表达不确定性,提供一种柔和且经过校准的偏好来传达不确定性。例如上图所示的那个例子,然而,这种方法需要精炼的人工标签信息来进行微调和开发新的训练机制,这些机制可以正确地利用这些信息

  • 一种新兴的机制可以帮助模型轻松放弃回答问题,这是选择性分类器的作用。这些模型可以提供诸如我不知道答案或作为人工智能模型,我无法回答之类的响应,特别是当任务超出其领域时。通常,选择性分类会使用分类器的 Softmax 输出来预测高确定性样本的结果,并放弃低确定性样本的结果

  • 此外,在各种 NLP 任务中使用保形预测方法提供了有希望的进步。这些努力,与域外检测策略以及通过事后缩放和微调改进模型校准的方法相结合,共同表明,尽管 LLM 通常校准不佳,但这些挑战可以可以通过更先进的方法部分解决

3.5 Sycophancy 谄媚

定义:LLM 可能倾向于通过再次确认用户的误解和既定信念来奉承用户。当用户挑战模型的输出或反复强迫模型遵守时,这是一个特别明显的现象。下图是一个好笑的例子,尽管模型最初进行了正确的计算,但它会退回到用户暗示和坚持的错误计算:

image

原因:请注意,谄媚与回答错误的原因不同:

  • 谄媚主要是因为我们对 LLM 的教学微调太多,以至于无法让他们服从用户的真实意图,以至于违背事实和真理

  • 另一方面,由于模型内部缺乏逻辑或推理,并且与用户提示的内容无关,可能会出现不一致

  • 此外,这还可能是由于训练数据中现有的阿谀奉承的评论和陈述造成的,这也可以归因于有时对 LLM 的过多指示,要求其提供帮助且不冒犯人类用户

  • 再者,RLHF 阶段有可能促进并强制执行人类用户的确认,在 Alignment 过程中,LLM 会被输入友好的例子,这些例子可以被解释为对人类用户的阿谀奉承

因此,对现有 RLHF 算法的一个重要改进是平衡阿谀奉承的程度和与人类用户一致的程度之间的权衡。


四、减少幻觉的方法

这里只是给出常见的几种方法,并不是所有方法

4.1 数据处理阶段

  1. 数据质量和多样性:选择高质量、多样性和平衡的数据集进行训练。这包括从多个来源收集数据,以及确保数据覆盖了各种主题和领域

  2. 数据清洗:在训练模型之前,对数据进行清洗和预处理,以去除错误、偏见和不相关的信息

  3. 数据标注:对数据进行标注,以提供关于信息真实性的额外信息。例如,可以标注数据中的事实是否正确,或者是否包含误导性的信息

4.2 训练阶段

  1. 模型微调:在特定任务或数据集上进一步训练模型,以改善模型在特定上下文中的表现

  2. 模型结构和参数选择:选择或设计适合任务的模型结构,并调整模型的参数,以优化模型的性能

  3. 模型集成:训练多个模型,并结合它们的输出,以提高输出的真实性

  4. 有限状态约束 FST:使用约束解码,将输入的 FSA x 与一个特殊的 FST T 进行合成,用于编码所有可能的分段决策,并将其投影到输出带中,以获得输出空间的确定性有限状态自动机

4.3 后处理阶段

  1. 后处理和过滤:在模型生成输出后,使用各种策略来过滤或修改输出,以提高其真实性

  2. 模型解释和可视化:理解模型的决策过程,以帮助识别可能的问题并改进模型

  3. 用户反馈:收集用户对模型输出的反馈,并使用这些反馈来改进模型

  4. Levenshtein 事后对齐算法:我们使用它将生成的字符串与参考字符串进行对齐,在 LLM 没有精确重新创建输入时,可以消除一些不流畅的文本

  5. Web 检索确认

另外,一般来说,进行更多 Alignment 的模型在整体可靠性方面往往表现更好。不过 Alignment 的有效性也会因所考虑的不同可靠性类别而异,这凸显了进行更细粒度的分析、测试和持续改进 Alignment 的重要性,我们可以用一张图来表示:

image


五、相关讨论

5.1 幻觉的来源

有人认为,幻觉来源于预训练和 SFT(有监督微调),因为我们希望模型尽可能的能回答我们的问题,尽管他们可能回答的不对,由此带来的三个负面影响是:

  1. 模型在回答的时候,不知道自己可以回答我不知道或者表达不确定性

  2. 模型有时不愿意去提出质疑,它认为肯定回答是数据任务的一部分

  3. 模型有时会陷入谎言之中。如果模型已经犯了一个错误,那么它会认为自己应该继续回答下去

行为克隆是强化学习领域的一个术语,意思是监督微调或最大化似然,其目的是完成给定 Prompt 的最大化似然或最大化对数概率。如果用行为克隆来训练模型,比如使用人类编写的正确答案或使用 ChatGPT 的输出进行训练,那么即使用 100 个正确的答案进行克隆,由于模型缺乏所有相关的事实,仍然是在教会模型产生幻觉。

如果你使用行为克隆来训练模型,那么无法避免出现幻觉问题,同时也会出现相反的问题,即如果你想训练模型在某些情况下回答我不知道,那么它可能会隐瞒实际上已经知道的信息。

例如,如果标注者不知道答案,他们可能会将我不知道列为目标答案,但实际上网络可能已经有了答案,你只是在训练模型隐瞒信息。

因此,行为克隆或监督学习的问题在于:正确的目标实际上取决于神经网络中包含了哪些知识,而这对于收集数据或进行实验的人来说是未知的。 所以,除非你有一种方法来查看模型中的内容,否则无法使用行为克隆训练出真实可信的模型。

如果尝试用监督学习数据集来训练另一个模型,也会遇到同样的问题。

例如,许多人正在使用 ChatGPT 的输出来微调开源基础语言模型。微调后,这些模型的表现很好。但如果仔细查看事实准确性,你会发现它们存在一些问题,并且经常会编造信息。不过这只是我预测的结果,还有待实验证实。

5.2 强化学习

有人认为,强化学习可以解决这个问题,部分幻觉仅因为模型陷入想要给出完整答案的模式或不知道如何表达不确定性而产生,因此这类幻觉很好解决。比如可在训练模型时给出一些表明我不知道我的知识截止于某某日期的示范,或者给出一些质疑用户提问的范例,这样模型至少能够表达不确定性,而如何掌握这个,就是强化学习要解决的问题(本质上和训练狗狗没有区别),当模型给出一个答案,如果是非常自信的正确答案,将得到高额奖励;如果是模糊的正确答案,将得到稍差的奖励;如果是无信息的答案,例如我不知道,将得到一些惩罚;如果是模糊的错误答案和完全错误的答案,将得到更多的惩罚。这基本是一个适当的评分规则,能够激励模型给出自信的答案,如果它对错误答案过于自信,就会给出相应惩罚。

实际上,有一个被设置为 TriviaQA 模式的实验,TriviaQA 是一个流行的问答数据集,它包含了一系列常识问题,这个实验使用了一种基本的问答格式来引导模型回答问题,如果你只在正确答案上进行行为克���,那么模型对所有问题都会给一个回答,但往往会包含一些错误答案。因为我们从未告诉它输出我不知道这样的答案,若遇到不知道的问题,它只能进行猜测而不会说我不知道。在对答案进行行为克隆时,只需要少量训练后模型就达到一定的准确率和对数损失,但这种训练只是在教模型它应该试图输出正确答案,模型实际上没有从这种微调中学习很多新知识,学到的只是问题格式及其处理方式。

某种程度上,我们可以通过解析计算来得出正确的奖励行为,即错误答案的惩罚与正确答案的奖励之间的差异。最优奖励行为可以简单理解成确定某种阈值,譬如当列表中排在最前的选项有超过 50% 的概率时就回答,否则就不回答。如果我们将奖励函数用于强化学习,模型就会学到最佳阈值行为,就像模型已经了解最佳策略。因此,如果使用强化学习微调模型,就可以让它做同样的事情,即使它并没有真正查看到这些概率。

如果你问 ChatGPT 一个技术问题,可能会得到正确、错误或具有误导性的答案,让标注者来判断答案是否有误往往行不通。所以需要让人们对回答进行排序,并说出哪个更好而不是最好。人们必须根据错误的严重程度来判断模型给出的答案,这在很大程度上取决于上下文。举一个编程的例子:模型写了 100 行代码,只有一个地方的参数写错了,这种情况下我宁愿让它给出这个答案,也不愿让它回答不知道,因为我至少可以在其基础上运行和调试。但是在其他情况下,这种错误可能是一个大问题。

事实上,ChatGPT 已经使用了一种常见的奖励机制——人工标注的排序序列,如下是示意图:

image

这样做的好处想必不用多说,一个是节约人力成本,另一个是防止个体差异。

然而,模型并没有就事实错误的严重程度和错误的模糊程度施以正确的惩罚,所以可以说,基于排名的奖励模型没有很好地解决这个问题。此外,标注者的错误肯定也有很多。有时标注者没有足够的信息来做出正确的标注,人类无法始终正确地进行排名,比如有些问题可能涉及到用户计算机上的某些代码库,标注者就无法访问。

综上所述,现在的方法都是尽可能地缓解幻觉,而不能根除幻觉,更有效的方法有待进一步研究,让我们拭目以待。

在这里插入图片描述

大模型&AI产品经理如何学习

求大家的点赞和收藏,我花2万买的大模型学习资料免费共享给你们,来看看有哪些东西。

1.学习路线图

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

2.视频教程

网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。

在这里插入图片描述

在这里插入图片描述

(都打包成一块的了,不能一一展开,总共300多集)

因篇幅有限,仅展示部分资料,需要点击下方图片前往获取

3.技术文档和电子书

这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。
在这里插入图片描述

4.LLM面试题和面经合集

这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。
在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 22
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值