​WWW 2023 | GraphPrompt: 图神经网络上统一预训练任务与下游任务

98412519826305dfe87b8d196436f5cd.gif

©PaperWeekly 原创 · 作者 | 于星橦

单位 | 中国科学技术大学博士生

研究方向 | 图神经网络

e474e7fe1ddca4feef67644c319a2473.png

论文题目:

GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks

论文链接:

https://arxiv.org/pdf/2302.08043.pdf

代码链接:

https://github.com/Starlien95/GraphPrompt

收录会议:

WWW 2023 Research Track

作者主页:

https://xingtongyu.netlify.app/

图可以模拟对象之间的复杂关系,从而实现众多网络应用,例如在线页面/文章分类和社交推荐。虽然图神经网络(GNN)已经成为图表示学习的强大工具,在端到端的有监督场景下,GNN 的性能严重依赖于大量有标签的数据。为了减少标签要求,“pre-train,fine-tune”(预训练,微调)和“pre-train,prompt”(预训练,提示)范式变得越来越常见。

特别地,prompt 是自然语言处理(NLP)中fine-tune 的流行替代方案,旨在以任务特定的方式缩小预训练和下游目标之间的差距。

然而,现有关于图上 prompt 的研究仍然有限,缺乏普适的处理方式来适用于不同的下游任务。在本文中,我们提出了 GraphPrompt,一种新颖的图预训练和提示框架。GraphPrompt 不仅将预训练和下游任务统一为一个通用任务模板,还使用可学习的 prompt 来协助下游任务以任务特定的方式从预训练模型中定位最相关的知识。最后,我们在五个公共数据集上进行了大量实验,以评估和分析 GraphPrompt。

208e7f701b6a21c1415eb10e6b727df4.png

9d48952ac624f53e5dcf91cb8891a29a.png

统一框架

e8ab37988d8e86050c21c317847439a9.png

▲ GraphPrompt框架图

我们首先在图 2 中介绍了 GraphPrompt 的总体框架。我们的框架部署在图 2(a) 中展示的一组无标签图上,用于图 2(b) 中的预训练。预训练采用了一个无监督的链接预测任务。在图 2(c) 中,我们利用

  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值