GraphGPT: Graph Instruction Tuning for Large Language Models

828 篇文章

已下架不支持订阅

本文介绍GraphGPT框架,它结合LLM与图结构知识,通过双阶段指令调优增强图模型在零样本学习场景中的泛化能力。该框架包括文本图基础组件和图文对齐映射器,提升LLM理解复杂图结构的能力,并在多个下游任务中表现出优秀的泛化性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《GraphGPT: Graph Instruction Tuning for Large Language Models》的翻译。

GraphGPT:大型语言模型的图形指令调优

摘要

图神经网络(GNN)通过图节点之间的递归信息交换和聚合,提高了对图结构的理解。为了提高模型的鲁棒性,自监督学习(SSL)已成为一种很有前途的数据增强方法。然而,现有的生成预训练图嵌入的方法通常依赖于对特定下游任务标签的微调,这限制了它们在标记数据稀缺或不可用的情况下的可用性。为了解决这一问题,我们的研究重点是在具有挑战性的零样本学习场景中提高图模型的泛化能力。受大型语言模型(LLM)成功的启发,我们的目标是开发一种面向图的LLM,即使没有来自下游图数据的任何信息,也可以在不同的下游数据集和任务中实现高度泛化。在这项工作中,我们提出了GraphGPT框架,该框架将LLM与图结构知识以及图指令调优范式相结合。我们的框架包含了一个文本图基础组件,以在文本信息和图结构之间建立联系。此外,我们还提出了一种双阶段指令调整范式,并配有一个轻量级的图文对齐映射器。该范式探索了自监督图结构信号和任务特定的图指令,以指导LLM理解复杂的图结构,并提高其在不同下游任务中的适应性。我们的框架在监督和零样本图学习任务上进行了评估,证明了优越的泛化能力和优于最先进的基线。

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值