本文是LLM系列文章,针对《Challenges Faced by Large Language Models in Solving
Multi Agent Flocking》的翻译。
摘要
群集是一种行为,系统中的多个代理试图保持彼此靠近,同时避免碰撞并保持所需的编队。这在自然界中得到了观察,并在机器人技术中得到了应用,包括自然灾害搜救、野生动物跟踪以及周边监视和巡逻。最近,大型语言模型(LLM)作为个体决策者,在解决各种协作任务方面表现出了令人印象深刻的能力。使用LLM解决多代理群集问题将证明它们在需要空间和分散决策的情况下的有用性。然而,当LLM驱动的代理负责实现多代理群集时,它们没有达到预期的行为。经过广泛的测试,我们发现以LLM为个体决策者的代理通常会选择收敛于其初始位置的平均值或相互偏离。在分解问题后,我们发现LLM无法理解以有意义的方式保持形状或保持距离。使用LLM解决多智能体群集问题将增强他们理解协作空间推理的能力,并为解决更复杂的多智能体任务奠定基础。本文讨论了LLM在多智能体集群中面临的挑战,并提出了未来改进和研究的领域。