Reddit上一个帖子爆料GPT-4拥有超强的多模态能力,能处理文本、语音、图片和视频,并具备复杂的推理和跨模态理解时,网友们顿时炸开了锅!有人竟然直接去问Sam Altman,结果得到一个轻飘飘的回答:“咳咳,没有啦。”
于是,有人转而向ChatGPT求证,不得了,它居然回答自己就是4.5版本的模型!但这场对话还没开始热闹起来,OpenAI的员工就出来介入了,果然是大模型幻觉了。随后,ChatGPT的官方账号也加入了这个“闹剧”,发推文配上“脑”和“雾”的表情,想必是在委婉地承认大模型确实有幻觉问题。
大模型的幻觉现象让人啼笑皆非。它并不是真的有人在背后泄露GPT-4的消息,而是模型自己在“吹牛”呢!过去一年多,大模型技术发展迅猛,无数科技巨头和AI创业公司都纷纷加入了“千模大战”,场面相当火爆。可偏偏,大模型就会玩这种幻觉把戏,看似道理十足,实则骗你个底朝天。
大模型幻觉就是那种一本正经的乱七八糟胡说八道,看起来十分合理,你很难分辨它究竟在扯什么。毕竟,大模型的计算能力太强大了,幻觉结果往往呈现出极高的可信度,让人苦于辨伪。