本文是LLM系列文章,针对《Exploring the Intersection of Large Language Models and Agent-Based Modeling via Prompt Engineering》的翻译。
摘要
模拟的最终边界是精确表示复杂的、真实世界的社会系统。虽然基于代理的建模(ABM)试图研究更大系统中代理的行为和交互,但它无法忠实地捕捉人类驱动行为的全部复杂性。像ChatGPT这样的大型语言模型(LLM)已经成为解决这一瓶颈的潜在方案,使研究人员能够以以前难以想象的方式探索人类驱动的交互。我们的研究调查了使用LLM模拟人类互动的情况。受Park等人的启发,通过提示工程,我们提出了两种人类行为可信代理的模拟:两名特工的谈判和六名特工的谋杀推理游戏。
1 引言
2 方法
3 结果
4 相关工作
5 结论
尽管模拟还很初级,但这项研究强调了建立大规模数字游乐场的潜力,以使用LLM评估现实世界中人类驱动的行为。关于可信度,Park等人量化了LLM驱动模拟的可信度,并发现LLM代理可以产生比人类状况更可信的行为,正如众包人类评估人员所评估的那样。