Search to aggregate neighborhood for graph neural network

Search to aggregate neighborhood for graph neural network

近年来,图神经网络(GNN)在各种场景中得到了普及和成功。为了获得特定于数据的GNN架构,研究人员转向了神经架构搜索(NAS),它在发现卷积神经网络中的有效架构方面取得了令人印象深刻的成功。然而,由于现有NAS方法在搜索空间设计上的挑战和昂贵的搜索成本,将NAS方法应用于GNN并非易事本文提出一种框架,试图搜索到聚集邻域(SANE),以自动设计数据特定的GNN架构,以获得数据特定的GNN架构,并解决NAS方法面临的计算挑战。通过设计一个新颖的、富有表现力的搜索空间,提出了一种可微的搜索算法,比以往的基于强化学习的方法更高效。在4个任务和7个真实数据集上的实验结果表明,与现有的GNN模型和NAS方法相比,SANE在有效性和效率方面具有优越性。 

一研究问题:

phNAS和Auto-GNN中这种简单的搜索空间设计有两个问题。第一种是没有包括各种GNN架构,例如GeniePath[18]或JK-Network[17],因此最佳性能可能不太好。第二,它通过在搜索空间中合并太多的超参数,使GraphNAS/Auto-GNN中的架构搜索过程过于昂贵。在NAS文献中,如何设计一个既具有足够的表达能力(大)又具有足够的紧凑性(小)的搜索空间,从而在精度和效率之间取得良好的平衡,仍然是一个具有挑战性的问题。

二 研究内容

为解决架构和计算挑战,本文提出一种新的NAS框架,试图搜索聚合邻域(SANE)以实现GNN中的自动架构搜索。通过重新审视广泛的GNN模型,定义了一个新的和富有表现力的搜索空间,可以模拟比现有NAS方法更多的人类设计的GNN架构,即GraphNAS和Auto-GNN。为了加速搜索过程,采用了先进的oneshot NAS范式[27],并设计了一种可微搜索算法,训练一个包含所有候选架构的超级网络,从而大大降低了计算成本。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值