总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
INSIDE: LLMs’ Internal States Retain the Power of Hallucination Detection
https://www.doubao.com/chat/2886902671498242
速览
这篇论文《INSIDE: LLMs’ INTERNAL STATES RETAIN THE POWER OF HALLUCINATION DETECTION》发表于ICLR 2024会议,主要研究大语言模型(LLMs)的幻觉检测问题。研究团队提出INSIDE框架,利用LLMs内部状态进行幻觉检测,提升检测性能。
- 研究背景:LLMs在多种应用中取得进展,但知识幻觉问题影响其在实际场景的应用,现有基于token - level不确定性估计或语言级自一致性评估的幻觉检测方法存在不足,因此文章提出利