本文是LLM系列文章,针对《StructGPT: A General Framework for Large Language Model to Reason over Structured Data》的翻译。
摘要
本文研究如何统一地提高大型语言模型(LLM)对结构化数据的零样本推理能力。受LLM工具增强研究的启发,我们开发了一种迭代阅读然后推理(IRR)方法,用于解决基于结构化数据的问答任务,称为StructGPT。在我们的方法中,我们构造了专门的函数来从结构化数据中收集相关证据(即阅读),并让LLM基于收集的信息集中推理任务(即推理)。特别地,我们提出了一种调用线性化生成过程,以支持LLM在外部接口的帮助下对结构化数据进行推理。通过使用提供的接口迭代这些过程,我们的方法可以逐渐接近给定查询的目标答案。在三种类型的结构化数据上进行的大量实验证明了我们方法的有效性,它可以显著提高ChatGPT的性能,并实现与全数据监督调整基线相当的性能。我们的代码和数据可在https://github.com/RUCAIBox/StructGPT上公开获取。