NeurIPS 2022 | ​NAS-Bench-Graph: 图神经网络架构搜索Benchmark

c6d05b49d224611704ead4f00f676811.gif

©作者 | 梁峰绮

单位 | 北京邮电大学

来源 | 北邮 GAMMA Lab

本文旨在简要介绍近期发表在 NeurIPS 2022 Datasets and Benchmarks Track 上的一个图神经网络架构搜索(GNAS)的节点分类 Benchmark,同时也是 GNAS 的第一个 Benckmark。

ead605ccad3a8b976a53317e2fd6c1a5.png

论文题目:

NAS-Bench-Graph: Benchmarking Graph Neural Architecture Search

论文地址:

https://openreview.net/pdf?id=bBff294gqLp

代码地址:

https://github.com/THUMNLab/NAS-Bench-Graph

819fbf155e78552e2a66fe2b3345230f.png


背景

神经网络架构搜索(NAS)作为自动机器学习(AutoML)的一个重要组成部分,旨在自动的搜索神经网络结构。NAS 的研究最早可以追溯到上世纪八十年代,随着算力的提升和神经网络的发展,自动搜索神经网络逐渐成为深度学习的的热门方向之一。NAS 的研究主要分为三个方面:搜索空间,搜索算法,以及评估策略。

1.1 搜索空间

搜索空间与探究的问题息息相关,在计算机视觉中,NAS 的搜索空间常常是一些 CNN 相关,如 3x3 卷积或 5x5 卷积。在图神经网络中,从宏观来说,我们可以搜索 GNN 的层数等,从微观来说,我们可以搜索 GNN 的 message passing 和 aggregation function 等。下图是一些代表的 GNN 搜索空间(同质图,图分类,图推荐,以及异质图)。

be1ab2d69596a0f7e97f33d9afeb0db9.jpeg

如何针对不同实际问题,设计好的搜索空间是 GNAS 领域最重要的问题之一。

1.2 搜索算法

在搜索算法上,NAS 本质上要解决的是针对搜索空间的组合优化问题,比较典型的有强化学习(RL),进化算法(EA)贝叶斯优化(BO)以及将搜索空间连续化的可微搜索(Differentiable Search)等等。

1.3 评估策略

早期 NAS 方法直接以验证集上实际指标的来评估搜索出来模型的好坏,但是从头训练一个模型得到验证集上的性能比较昂贵,于是研究者开始使用代理指标(Proxy Metric)去替代真实的验证集性能,这些代理指标通常不需要太多计算开销。如何找到高效且接近真实验证集性能的代理指标也是 NAS 值得研究的问题。

1.4 NAS Benchmark

NAS Benchmark(如 NAS-Bench-101,NAS-Bench-201 等)主要思想是在搜索空间中穷尽搜索子网络,将子网的结构以及对应的验证集精度记录下来,形成一个表,研究人员使用的时候只需要通过查表就可以得到对应的验证集精度,这样就不需要重新训练和测试,降低了对计算资源的依赖,同时也为 NAS 的研究者提供公平比较。但是在 Graph 领域还没有类似的工作,本文是 Graph NAS Benchmark 的第一个工作。

407e19139d3ede57c433846fcd795ca5.png


方法介绍

2.1 搜索空间

本文在搜索的宏观架构上使用了以下九种结构:

efaabc0abf77ad287419ba4a9a37d37b.png

每个节点有九种可选组合:GCN, GAT, GraphSAGE, GIN, ChebNet, ARMA,  k-GNN, Identity(残差连接)以及 FC(Fully Connected Layer,不使用图结构),作者移除了同构的架构图产生了一个包含 26,206 种 GNN 的搜索空间。

2.2 数据集

本文在如下九个常见的节点分类数据集进行了实验:

b6cbc6501af02efd4d71332fdc797784.png

2.3 分析


2.3.1 性能分布

本文可视化了所有数据集与推理延迟的关系,如下图,其中红色的部分代表着模型性能和模型推理延迟(一般来说模型越大延迟越高)的帕累托前沿(Pareto Front):

f41c88a26cf4ddab08207f5131633bc7.png

作者发现尽管高性能的架构最终效果都差不多,但是越大的模型总是能获得更高的性能,并且作者计算了模型性能与模型大小的相关系数,发现是正相关的,因此我们在设计 GNN 时需要做出模型大小和效果的权衡。

2.3.2 架构分布

作者选择了表现 top 5% 的一个结构对宏观操作和 GNN 类型做了频率统计绘制了如下图。

a7865cbf34328291e54e594405030fe4.png

从图(a)中我们可以看出 Cora、Citeeer 和 PubMed 倾向于选择两层 GNN,即 E、F、G 和 H(见 2.1);PudMed 和 CS 也更喜欢选择在其他数据集中很难选择的 1 层的 GNN 如 I;Physics, Photo 和 Computers 数据集在选择上更均匀。ogbn-arXiv 和 ogbn-proteins  更喜欢选择更深的 GNN。

从图(b)中我们可以看出 GCN 和 GAT 几乎在所有数据集中选择频率最高;GIN 和 k-GNN 在理论上更接近 WL-test,但他们只在相对较小的数据集(Cora、Citeeer 和 PubMed)中容易被选中,作者给出的解释是这些 GNN 在聚合的过程中使用了大量 sum 聚合,不适用于大规模图中的节点级任务。

2.3.3 跨任务

作者选取不同数据集中 top 5% 的架构做了任务之间的相关性比较(其中重复率代表着 top 5% 的结构在两个不同间重叠的部分),并可视化如下图:

86568103c7d3963fee59e2209088e384.png

从图中可以看出 Cora、Citeeer 和 PubMed 通显示出很强的相关性。Physics, Photo, Computers 和 ogbn-arXiv 的相关性也很高。即使 Pearson 和 Kendall 很大,但前 5% 的重叠率也不高。也就是说我们在不同数据集之间直接迁移最有架构可能在另外一个数据集并不是最优。

2.3.4 搜索实验

本文做了以下搜索实验,有以下发现:1)所有搜索算法都优于前 5% 架构,表明从搜索的角度来说这些搜索算法都是有效的;2)没有一种搜索算法能在所有数据集上获胜。与其他搜索相比,随机搜索仍然是一个强大的 baseline,甚至在两个数据集上表现最好,结果表明,我们需要对 GraphNAS 的进一步研究。

ddac799660cd709551c505317aa4e133.jpeg

2.3.5 使用

本文所提供的 Benchmark 易于使用,下面是一个 python 代码的使用例子:

fc1b9726d006e216f60220cf4976dc0d.jpeg

318c1eb79fc347c3640cc6dc6b1dd738.jpeg

6162275d0a33e85b061b7a99a7ee61d1.png

总结

这个工作作为第一个 GNAS 的 Benchmark,本文对 GNAS 领域的社区发展做出了贡献。同时本文从搜索出的结构出发,在不同的角度给出了设计节点级别的 GNN 的指导,对设计节点级别 GNN 做出了一定的贡献。但是本文也有其局限性,对于图级别的任务和异质图的任务,本文没有进行探索,我们期待在将来看到更多的相关工作。


outside_default.png

参考文献

outside_default.png

[1] Zhenyi Wang, Huan Zhao, and Chuan Shi. 2022. Profiling the Design Space for Graph Neural Networks Based Collaborative Filtering. In WSDM. 1109–1119.

[2] Jiaxuan You, Zhitao Ying, and Jure Leskovec. 2020. Design space for graph neural networks. NeurIPS 33 (2020).

[3] Chris Ying, Aaron Klein, Eric Christiansen, Esteban Real, Kevin Murphy, and Frank Hutter. Nas-bench-101: Towards reproducible neural architecture search. In ICML, pages 7105–7114. PMLR, 2019.

[4] Xuanyi Dong and Yi Yang. Nas-bench-201: Extending the scope of reproducible neural architecture search. In ICLR, 2019.

[5] T. Elsken, J. H. Metzen, F. Hutter, Neural architecture search: A survey, arXiv preprint arXiv:1808.05377

[6] Tianyu Zhao, Cheng Yang, Yibo Li, Quan Gan, Zhenyi Wang, Fengqi Liang, Huan Zhao, Yingxia Shao, Xiao Wang, and Chuan Shi† . 2022. Space4HGNN: A Novel, Modularized and Reproducible Platform to Evaluate Heterogeneous Graph Neural Network. In SIGIR 2022

更多阅读

4a484a60d443eb2f4e9502a9e781b61d.png

7323cb808b53a79a5f8f38b048dacdde.png

93833e3a2a9e128bb2377d64e00e3245.png

af0ed6b27f83e52b94c254fd1985e3be.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

952030ddfc681ad58ad662e54dfb1234.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

74d3cfee6dbe353060f4e21c9de27ca3.jpeg

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值