概念科普|大模型为什么会产生幻觉

一、幻觉的概念

在大语言模型(LLM)的语境之下,“幻觉”(hallucination)指的是模型在没有足够证据支持的情况下,生成的错误或虚构的信息。这种现象在自然语言处理(NLP)任务中尤其突出,如文本生成、摘要、对话系统等。大语言模型如GPT系列,在生成连贯、流畅的文本的同时,也可能产生与事实不符的内容,这就是所谓的"幻觉"

二、幻觉的特点

根据我们使用ChatGPT的常用场景,我总结了以下几个幻觉的特点

2.1 非事实性

模型可能会创造出不存在的事实或事件,这些信息看似合理,但与现实不符
image.png

2.2 内容不一致

在生成的文本中,模型可能会提供相互矛盾或逻辑上不连贯的信息。
image.png

2.3 缺乏依据

生成的信息缺乏来自输入数据的明确支持,似乎是模型"凭空想象"的结果

三、幻觉产生的原因

幻觉的产生通常归因于几个因素:

  • 模型训练数据的局限性:模型训练所用的数据可能包含偏差、错误或不完整的信息,导致模型在学习时就已经接触到错误或不一致的内容。
  • 模型对现实世界知识的理解有限:尽管大型语言模型在处理文本时表现出惊人的能力,但它们并不具备真正理解现实世界的能力。它们缺乏对现实世界复杂性的深入理解,这限制了它们在某些情况下正确生成文本的能力。
  • 复杂上下文的挑战:在处理长篇幅文本或复杂上下文时,即使是先进的大型语言模型也可能遇到难题,导致生成不准确或不相关的内容。
  • 生成过程的随机性:在文本生成过程中,模型可能会探索多种可能的输出路径。这种探索过程中的随机性有时会导致生成与预期或实际情况不符的内容。

四、如何应对幻觉

为了减少幻觉的发生,可以有两种类型的策略,一种是提升模型,另一种是使用者添加约束。
提升模型一般有两种手段,分别是:

  • 改进模型架构和训练技术:通过改进模型的架构和训练方法,提高模型对数据的理解和处理能力
  • 数据质量和多样性:通过使用更准确、更全面的训练数据,减少模型训练过程中的偏差和错误

你会发现针对同一个问题,GPT-4会比GPT-3.5回答的更加准确:(左图:GPT-4 右图:GPT-3.5)
image.png
image.png

而使用者添加约束,则就是我们这个专栏要做的事情,就是如何编写Prompt让大模型输出符合我们预期的结果。


最后如果您也对AI大模型感兴趣想学习却苦于没有方向👀
小编给自己收藏整理好的学习资料分享出来给大家💖
👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码关注免费领取【保证100%免费】🆓

在这里插入图片描述

  • 5
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值