KDD2022论文 GPPT: Graph Pre-training and Prompt Tuning to Generalize Graph Neural Networks 【概读】

尽管图神经网络(gnn)的表示学习很有前途,但gnn的监督训练众所周知需要来自每个应用程序的大量标记数据。一种有效的解决方案是在图中应用迁移学习:使用易于获取的信息对gnn进行预训练,并对其进行微调,使其仅使用少量标签即可优化下游任务。近年来,人们在设计自监督的借口任务,并在各种应用程序中对通用图知识进行编码方面做了很多努力。然而,他们很少注意到借口和下游任务之间固有的培训目标差距。这个显著的差距通常需要昂贵的微调,以使预训练的模型适应下游问题,这阻碍了预训练知识的有效提取,然后导致糟糕的结果。更糟糕的是,朴素预训练策略通常会恶化下游任务,损害图数据迁移学习的可靠性。为了缩小任务差距,我们提出了一种新的迁移学习范式来推广gnn,即图预训练和提示调谐(GPPT)。具体来说,我们首先采用最简单和最流行的借口任务——屏蔽边缘预测来预训练gnn。在预训练模型的基础上,我们提出了图形提示函数,将独立节点修改为令牌对,并重新制定与边缘预测相同的下游节点分类。令牌对由候选标签类和节点实体组成。因此,无需繁琐的微调,就可以使用预训练的gnn来评估令牌对的链接概率,并产生节点分类决策。在8个基准数据集上的大量实验证明了GPPT的优越性,在少镜头图分析中平均提高了4.29%,模型收敛速度加快了4.32X。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值