本文是LLM系列文章,针对《Causal Agent based on Large Language Model》的翻译。
摘要
大型语言模型(LLM)在各个领域都取得了重大成功。然而,因果问题和因果理论的内在复杂性给用自然语言准确描述它们带来了挑战,使LLM难以有效地理解和使用它们。因果方法不容易通过自然语言传达,这阻碍了LLM准确应用它们的能力。此外,因果数据集通常是表格形式的,而LLM在处理自然语言数据方面表现出色,造成了结构不匹配,阻碍了使用表格数据进行有效推理。因果推理能力的缺乏限制了LLM的发展。为了应对这些挑战,我们在一个名为因果代理的代理框架内为LLM配备了因果工具,使其能够解决因果问题。因果因素包括工具、记忆和推理模块。在工具模块中,因果代理应用因果方法将表格数据与自然语言对齐。在推理模块中,因果代理使用ReAct框架通过工具进行多次迭代来执行推理。在内存模块中,因果代理维护一个字典实例,其中键是唯一的名称,值是因果图。为了验证因果主体的因果能力,我们建立了一个由四个层次的因果问题组成的基准:变量层次、边缘层次、因果图层次和因果效应层次。我们使用ChatGPT-3.5为这四个级别的问题生成了1.3K的测试数据集,并在数据集上测试了因果因素。我们的方法在四个层次的因果问题上表现出显著的有效性,准确率均在80%以上。如需进一步了解和实现细节,可以通过GitHub存储库访问我们的代码https://github.com/Kairong-Han/Causal_Agent.