本文是LLM系列文章,针对《Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge from Large Language Models》的翻译。
摘要
图在现实世界中无处不在,例如社交网络分析、生物信息学和知识图谱。图神经网络 (GNN) 在节点分类方面具有很强的能力,这是图的一项基本任务。不幸的是,尽管在实际应用中普遍存在少数样本节点分类任务,但传统的 GNN 在标记节点较少的情况下仍然面临挑战。为了应对这一挑战,已经提出了各种方法,包括图元学习、迁移学习和基于大型语言模型 (LLM) 的方法。然而,传统的元学习和迁移学习方法通常需要来自基类的先验知识,或者无法利用未标记节点的潜在优势。同时,基于 LLM 的方法可能会忽略 LLM 的零样本功能,并严重依赖生成的上下文的质量。在本文中,我们提出了一种集成 LLM 和 GNN 的新方法,利用 LLM 的零样本推理和推理能力,并采用基于 Graph-LLM 的主动学习范式来提高 GNN 的性能。广泛的实验表明,我们的模型在提高节点分类准确性方面的有效性,而标记数据相当有限,大大超过了最先进的基线。