深度神经网络训练过程中为什么验证集上波动很大_图神经网络的新基准

d151366860996fd695abe4837b05be1f.png

作者 | 李光明

编辑 | 贾 伟

编者注:本文解读论文与我们曾发文章《Bengio 团队力作:GNN 对比基准横空出世,图神经网络的「ImageNet」来了》所解读论文,为同一篇,不同作者,不同视角。一同参考。

近些年,图神经网络(GNN)的关注度越来越高,相关的算法也越来越多,应用领域越来越广,其面临的两大基础问题是:

1)构建GNN的第一原则和第一要素是什么?使用什么样的架构能够使得GNN在大数据集上同样拥有泛化能力和扩展性?

2)如何研究和量化不同 GNN 的影响?

基准框架(Benchmarking)是解决这些基础问题的强大工具。比如,著名的2012 ImageNet 竞赛提供了基准的图像数据集,引来各国参赛队伍争相产出最好的图像分类模型,直接促进了深度学习在计算机视觉领域的变革。

但设计成功的基准库面临着很多挑战:合适的数据集,鲁棒性的代码接口,以及公平的实验设置,并且要求结果可复现。现有的GNN模型常用的数据集(CORA和TU)都很小,导致大多数GNN模型产出几乎一样的结果,即使没有引入图结构的神经网络,有时都能表现地比GNN好。此外,实验参数的设置,包括超参,损失函数以及学习率的选择,都是构建基准库需要面临的挑战。

e706025fc2f72b649ad5bef842a3a9b5.png

论文链接:

https://arxiv.org/pdf/2003.00982.pdf

开源链接:

https://github.com/graphdeeplearning/benchmarking-gnns

近期,南洋理工大学的Vijay等人(Yoshua Bengio 也在作者之列)发表了一篇GNN基准论文,提出了图神经网络的新基准。文章本身做了以下几点贡献:

1)基于PyTorch和DGL库在Github上开源了一个使用者友好的GNN基准库( https://github.com/graphdeeplearning/benchmarking-gnns );

2)提出了一些中等规模的数据集(9-500个节点),涵盖了数学建模,计算机视觉,组合优化,以及化学等领域;

3)利用基准库验证了GNN中重要组件的有效性,包括图卷积,异性扩散,残差连接,标准化层等;

4)受限于超参寻找的代价,本文并非试图比较各种GNN模型,而是固定一组参数设定,

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值