“编造”法律条文、权威观点、数据成果,提供虚假理论依据,误导处理……当人们查核文献、搜寻资料、处理数据越来越习惯于“遇事不决问AI”的时候,却发现人工智能娴于一本正经地“说谎”,在我们眼前腾起以假乱真的幻觉。
今天,AI正迅速成为你我生活“日用品”。我们可以像治病一样除去它带来的“知识幻觉”吗?幻觉生成的风险,又当如何规避?当如何与之一同生活,而且生活得更好?
随着大模型加速走进百行千业,人们开始发现,大模型有时“不太靠谱”。“我试着让DeepSeek回答工程方面的问题,其引用的工程规范中的条款和实际规范压根对不上”“大模型往往‘张冠李戴’,如果质疑它,有时候还会狡辩”“让它推荐书,告诉我的却是一堆压根不存在的书名,居然还都有作者和内容简介”……这样的大模型“用后感”,是不是也道出了你我身边人的心声?
“一本正经地‘说谎’,就是AI生成的‘幻觉’。”浙江大学人工智能研究所所长吴飞一语道破。
清华大学沈阳团队在2025年2月发布的《DeepSeek与AI幻觉》报告中介绍,他们测试了眼下风行的一系列大模型,题目是随机抽取300道事实性幻觉测试题,涵盖健康、科学、历史、文化、音乐等多个领域,获取大模型给出的答案与正确答案比对发现,多个热门大模型的幻觉率超过20%。
例如,面对“水浒传中李逵为什么要大闹五台山”的提问,3款热门大模型无一指出此提问本身的错误,反而“顺坡下驴”,给出了诸如“喝醉酒”“误闯寺庙”“出手相助鲁智深”等答案。
事实上,对于人工智能的“知识幻觉”问题,国际科学界早有体会。今年《自然》一篇报道指出,目前AI辅助科研在参考文献方面出现错误的情况相当普遍,AI检索工具往往会“找出”与研究主题并无关系的论文。至于论文标题、第一作者或发表年份等细节的偏差,AI的差错率少则30%,多则90%。
看来,不只是你的父母长辈搞不清楚AI的“锦囊妙计”靠不靠谱,科学家也一样头疼呀!
Anko是一个多模型多模态的AI办公工具,适合需要跨领域整合AI技术的用户,同时调用多模型,一举并用,多样回复,显著对比,高效选择心仪的回答/图片/视频
AnKo的聚合AI工具能够在短时间内处理大量数据,响应速度快,准确率较高,多样化并行操作,节约时间,提高工作效率,多模型多模态的AI办公工具,助力效率翻倍。