本文是LLM系列文章,针对《CogGPT: Unleashing the Power of Cognitive Dynamics on Large Language Models》的翻译。
摘要
认知动态性对于促进人类对世界的理解至关重要。大型语言模型(LLM)的最新进展揭示了它们在认知模拟方面的潜力。然而,这些基于LLM的认知研究主要侧重于静态建模,忽略了认知的动态本质。为了弥补这一差距,我们提出了LLM的认知动态性概念,并在纵向研究的启发下提出了相应的任务。为了完成这项任务,我们开发了CogBench,这是一种新的基准,用于评估LLM的认知动态,并通过参与者调查进行验证。我们还为CogBench设计了两个评估指标,包括真实性和合理性。认识到LLM固有的静态性质,我们为该任务引入了CogGPT,其特点是一种创新的迭代认知机制,旨在增强终身认知动态。经验结果表明,CogGPT优于现有方法,特别是在连续信息流下促进特定角色认知动态的能力方面。
1 引言
2 任务
3 CogBench
4 方法
5 实验
6 相关工作
7 结论
在这项工作中,我们引入了LLM认知动态性的关键概念,并提出了一个具有正式定义的相关任务,解决了基于LLM的认知研究中的一个显著差距。为了完成这项任务,我们开发了一个创新的基准CogBench,并通过广泛的参与者调查进行验证。同