AAAI 2023 杰出论文 | DropMessage:图神经网络随机删减方法的归并统一

本文提出了一种名为DropMessage的新颖随机删减方法,适用于图神经网络(GNNs)。不同于传统的Dropout、DropEdge和DropNode,DropMessage在消息传递层面上进行操作,能更细粒度地减少样本方差并保持信息多样性,从而提高模型的稳定性和泛化能力。理论和实验分析均证明了DropMessage在增强模型鲁棒性方面的优势。
摘要由CSDN通过智能技术生成

点击蓝字

c9340c435464f3628f371a82f2b63c9e.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

d57e77a6e86a094e9c71e6abb2dc24be.gif

本文探究了随机删减方法在图神经网络(GNNs)上的应用。随机删减方法指的是在神经网络模型上一层输出和下一层输入之间随机删除部分元素的一类方法。这类方法能够广泛提升模型的鲁棒性和泛化性。几乎所有的深度模型都会应用这一方法来提升模型性能。针对近年来得到广泛研究的图神经网络(GNNs),很多随机删减方法的变体被提出,其中包括DropEdge[1],DropNode[2]。这些变体与传统的Dropout[3]一起,被众多GNNs模型使用。本文针对图神经网络的消息传递机制(message-passing),提出了在消息层面进行随机删减的DropMessage方法。DropMessage是更加细粒度的图上随机删减方法,现有的随机删减方法都是DropMessage的特殊形式。相比于现有方法,DropMessage的样本方差更小,保留了图上信息的多样性。本文从理论和实验上证明了DropMessage方法的优越性。

91842559fa0513184c20b40ea3ce9979.png

DropMessage示意图

f63094587328d302ae9dbe9b7b956431.png

图上的随机删减方法对比

1

DropMessage介绍

与现有的随机丢弃方法不同,DropMessage直接在消息矩阵上执行,而不是特征矩阵或邻接矩阵。具体来说,DropMessage以的删减率在消息矩阵上进行随机删减,这意味着消息矩阵中的个元素将被删除。对于消息矩阵中的每个元素,我们根据伯努利分布生成一个独立的掩码来确定它是否会被保留。然后,我们通过将每个元素与其掩码相乘来获得扰动后的消息矩阵。最后,我们用对进行缩放,以保证消息矩阵规模不变。整个过程可以表示为:

39c2b42ad0f690eac9f26b1e7ba9b5d9.png

不同随机删减方法的不同形式化表示

2

理论分析

随机删减方法有效性的理论分析

本文先分析了随机删减方法在GNNs上为何会起作用。

a0f33d40fdd07b34eb67e577c4477a59.png

随机删减方法会在模型的损失函数中引入额外的正则约束,使得模型更加鲁棒。以二分类节点分类任务为例,如果选择交叉熵作为损失函数,那么最终的优化目标将转变为:

9848b4447cf958a2cd9c3be0ed53e8ef.png

优化这个损失函数,后项将会使得分类概率接近0和1,这会让模型得到更加明确的分类边界。此外,这个损失函数也会要求表征在不同扰动下尽量得到一致的最终结果,这增加了模型的鲁棒性。

DropMessage相比于其他方法的优势

A. 降低样本方差

3fef3f727a421c8cef9c22c459dbe419.png

在相同随机删减率的情况下,DropMessage有着最小的样本方差,这也意味着DropMessage将保证训练过程的稳定。实验中得到的曲线图也证明了这一点。

1a70aae291cf7bcccc2242ddf1205c1a.png

不同随机删减方法的训练曲线图

B. 保证信息多样性

DropMessage还有着信息多样性上的优越性。首先给出信息多样性的定义。

24b8b4a4e81c636a2d2d8ef83d4a2884.png

所有现有的随机删减方法(Dropout,DropEdge,DropNode)都会减小图上的信息多样性。而DropMessage在特定的随机删减率下,图上的信息多样性将在期望上不会降低。

e3705c596cc0ccbfbf8421a5b79395cf.png

从信息论的角度来讲,DropMessage保留了更多的图上的信息,它理应是其他随机删减方法性能的上限。

3

实验分析

本文在多个数据上进行了性能实验,结果表明DropMessage相比于其他方法有着一定的性能提升。

e2ba38d8eeb75679a3ff4754c89f990f.png

在过拟合实验上的结果也表明DropMessage能够更好地避免模型产生过拟合。

0ce39c5deb69e333da86cbd6cc37f017.png

过拟合分析

4

总结

本文提出了一种基于message-passing图神经网络的随机删减方法——DropMessage。现有的随机方法都可以看成是DropMessage的特殊形式。相比于现有方法,DropMessage还有收敛速度快,训练过程稳定和保留更多信息的优势。作者认为,应用DropMessage可以普适地提升基于message-passing的图神经网络的性能。

论文链接:https://arxiv.org/abs/2204.10037

代码链接:https://github.com/zjunet/DropMessage

[1] Rong, Y.; Huang, W.; Xu, T.; and Huang, J. 2019. Dropedge: Towards deep graph convolutional networks on node classification. In ICLR.

[2] Feng, W.; Zhang, J.; Dong, Y.; Han, Y.; Luan, H.; Xu, Q.; Yang, Q.; Kharlamov, E.; and Tang, J. 2020. Graph Random Neural Networks for Semi-Supervised Learning on Graphs. NeurIPS, 33.

[3] Hinton, G. E.; Srivastava, N.; Krizhevsky, A.; Sutskever, I.; and Salakhutdinov, R. 2012. Improving neural networks by preventing co-adaptation of feature detectors. ArXiv, abs/1207.0580.

往期精彩文章推荐

9cf86910079f4bd58fed5ee989a4e148.jpeg

记得关注我们呀!每天都有新知识!

 关于AI TIME 

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了900多位海内外讲者,举办了逾450场活动,超500万人次观看

0c66d185b27ad7e004224cc10087abe9.png

我知道你

在看

~

2464545eae62bd6bf43d0a0a37da1ee2.gif

点击 阅读原文 查看回放!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值