本文是LLM系列文章,针对《Think-on-Graph: Deep and Responsible Reasoning of Large Language Model with Knowledge Graph》的翻译。
摘要
大型语言模型(LLM)在各种任务中取得了重大进展,但它们往往难以进行复杂的推理,并且在知识可追溯性、及时性和准确性至关重要的场景中表现出较差的性能。为了解决这些局限性,我们提出了Think on Graph(ToG),这是一个新颖的框架,利用知识图谱来增强LLM的深度和负责任推理能力。通过使用ToG,我们可以识别与给定问题相关的实体,并进行探索和推理,从外部知识数据库中检索相关的三元组。这个迭代过程生成由顺序连接的三元组组成的多个推理路径,直到收集到足够的信息来回答问题或达到最大深度。通过对复杂多跳推理问答任务的实验,我们证明了ToG优于现有方法,有效地解决了LLM的上述局限性,而不会产生额外的训练成本。