本文是LLM系列文章,针对《GraphTranslator: Aligning Graph Model to Large Language Model for Open-ended Tasks》的翻译。
摘要
像ChatGPT这样的大型语言模型(LLM)展示了强大的零样本和指令跟踪功能,催化了不同领域的革命性转变,尤其是对于开放式任务。虽然这一想法在图领域的探索较少,尽管有许多强大的图模型(GM)可用,但它们仅限于预定义形式的任务。尽管已经提出了几种将LLM应用于图的方法,但它们无法同时处理预定义和开放的任务,LLM作为节点特征增强器或独立的预测器。为了打破这一困境,我们建议通过一个名为GraphTranslator的翻译器来桥接预训练的GM和LLM,旨在利用GM有效地处理预定义的任务,并利用LLM的扩展接口为GM提供各种开放式任务。为了训练这样的翻译器,我们提出了一个能够根据节点信息、邻居信息和模型信息构建图文对齐数据的Producer。通过将节点表示转换为token,GraphTranslator使LLM能够基于语言指令进行预测,为预定义任务和开放式任务提供统一的视角。大量的结果证明了我们提出的GraphTranslator在零样本节点分类上的有效性。图形问答实验通过语言指令揭示了我们在广泛的开放式任务中的GraphTranslator潜力。我们的代码位于: