本文是LLM系列文章,针对《Beyond Lines and Circles: Unveiling the Geometric Reasoning Gap in Large Language Models》的翻译。
摘要
大型语言模型(LLM)在数学和算法任务方面表现出越来越强的能力,但其几何推理技能却没有得到充分的探索。我们研究LLM在构造性几何问题解决方面的能力,这是人类数学推理发展的最基本步骤之一。我们的工作揭示了最先进的LLM在这一领域面临的显著挑战,尽管在类似领域取得了许多成功。LLM在目标变量选择方面表现出偏见,并难以处理二维空间关系,经常歪曲和幻觉物体及其位置。为此,我们引入了一个框架,该框架制定了一个基于LLM的多代理系统,通过进行内部对话来增强其现有的推理潜力。这项工作强调了LLM目前在几何推理方面的局限性,并通过自我纠正、协作和多样化的角色专业化提高了几何推理能力。
1 引言
2 相关工作
3 前言
4 方法
5 实验
6 消融实验
7 结论
我们的研究强调了LLM在构造几何中面临的内在挑战。