总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
Unsupervised Real-Time Hallucination Detection based on the Internal States of Large Language Models
https://www.doubao.com/chat/2890771455675394
https://arxiv.org/pdf/2403.06448
速览
这篇论文主要介绍了一种基于大语言模型(LLMs)内部状态的无监督实时幻觉检测框架MIND,还提出了一个新的评估基准HELM,用于评估多个大语言模型的幻觉检测能力。
- 研究背景:大语言模型在自然语言处理任务中表现出色,但会产生幻觉,即生成逻辑连贯但事实错误或有误导性的内容,影响其在实际应用中的效果,因此需要研究检测和减轻幻觉的方法。现有研究主要集中在事后处理技术,存在计算成本高、模型能力受限等问题。
- MIND框架:提出MIND,一种无监督训练

订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



