本文是LLM系列文章,针对《Bootstrapping Cognitive Agents with a Large Language Model》的翻译。
摘要
大型语言模型包含嘈杂的世界常识,但很难训练或微调。另一方面,认知架构具有出色的可解释性,并且可以灵活更新,但需要大量的手动工作来实例化。在这项工作中,我们将两全其美结合起来:将基于认知的模型与大型语言模型中编码的嘈杂知识进行引导。通过一个执行厨房任务的具体代理,我们表明,与完全基于大型语言模型的代理相比,我们提出的框架产生了更好的效率。我们的实验表明,大型语言模型是认知架构的良好信息来源,而认知架构反过