本文是LLM系列文章,针对《ToolNet: Connecting Large Language Models with Massive Tools via Tool Graph》的翻译。
摘要
尽管在广泛的任务中取得了显著的进展,但大型语言模型(LLM)在正确使用大量外部工具方面仍然受到很大限制。现有的上下文学习方法只需将工具格式化为纯文本描述列表,并将其输入LLM,LLM从中生成一系列工具调用,以逐步解决问题。这种范式忽略了工具之间的内在依赖性,并将所有推理负载卸载到LLM,使其仅限于有限数量的专门设计的工具。因此,LLM在大型工具库上操作仍然具有挑战性,这在面对现实世界的场景时造成了很大的限制。本文提出了ToolNet,这是一个即插即用的框架,可以在token消费适度增加的情况下将工具数量增加到数千个。ToolNet将工具组织成有向图。每个节点表示一个工具,加权边表示工具过渡。从初始工具节点开始,LLM通过迭代地从其后续节点中选择下一个来在图中导航,直到任务得到解决。大量实验表明,ToolNet可以在具有挑战性的多跳工具学习数据集中取得令人印象深刻的结果,并且对工具故障具有弹性。