Exploring the Intersection of Large Language Models and Agent-Based Modeling via Prompt Engineering

516 篇文章 3 订阅

已下架不支持订阅

68 篇文章 0 订阅
本文探讨了大型语言模型(LLM)如何通过提示工程改进代理建模,用于模拟人类行为,如谈判和谋杀推理游戏。研究表明,LLM驱动的模拟可能产生比人类更可信的行为。尽管面临如提示token限制和信息检索复杂性的挑战,该研究揭示了LLM在创建大规模数字实验平台的潜力。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Exploring the Intersection of Large Language Models and Agent-Based Modeling via Prompt Engineering》的翻译。

通过提示工程探索大型语言模型与基于Agent的建模的交叉点

摘要

模拟的最终边界是精确表示复杂的、真实世界的社会系统。虽然基于代理的建模(ABM)试图研究更大系统中代理的行为和交互,但它无法忠实地捕捉人类驱动行为的全部复杂性。像ChatGPT这样的大型语言模型(LLM)已经成为解决这一瓶颈的潜在方案,使研究人员能够以以前难以想象的方式探索人类驱动的交互。我们的研究调查了使用LLM模拟人类互动的情况。受Park等人的启发,通过提示工程,我们提出了两种人类行为可信代理的模拟:两名特工的谈判和六名特工的谋杀推理游戏。

1 引言

2 方法

3 结果

4 相关工作

5 结论

尽管模拟还很初级,但这项研究强调了建立大规模数字游乐场的潜力,以使用LLM评估现实世界中人类驱动的行为。关于可信度,Park等人量化了LLM驱动模拟的可信度,并发现LLM代理可以产生比人类状况更可信的行为,正如众包人类评估人员所评估的那样。

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值