Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge

本文是LLM系列文章,针对《Enhancing Graph Neural Networks with Limited Labeled Data by Actively Distilling Knowledge from Large Language Models》的翻译。

通过从大型语言模型中主动提取知识,使用有限的标记数据增强图神经网络

摘要

图在现实世界中无处不在,例如社交网络分析、生物信息学和知识图谱。图神经网络 (GNN) 在节点分类方面具有很强的能力,这是图的一项基本任务。不幸的是,尽管在实际应用中普遍存在少数样本节点分类任务,但传统的 GNN 在标记节点较少的情况下仍然面临挑战。为了应对这一挑战,已经提出了各种方法,包括图元学习、迁移学习和基于大型语言模型 (LLM) 的方法。然而,传统的元学习和迁移学习方法通常需要来自基类的先验知识,或者无法利用未标记节点的潜在优势。同时,基于 LLM 的方法可能会忽略 LLM 的零样本功能,并严重依赖生成的上下文的质量。在本文中,我们提出了一种集成 LLM 和 GNN 的新方法,利用 LLM 的零样本推理和推理能力,并采用基于 Graph-LLM 的主动学习范式来提高 GNN 的性能。广泛的实验表明,我们的模型在提高节点分类准确性方面的有效性,而标记数据相当有限,大大超过了最先进的基线。

1 引言

<

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值