北邮王啸:图神经网络的两面性

本文由北京邮电大学助理教授王啸分享,探讨图神经网络(GNN)的两面性,包括其在节点分类任务上的优势,以及如何更好地利用节点特征结构和不同频段信息。文章介绍了AM-GCN和FAGCN模型,前者通过注意力机制融合拓扑和特征信息,后者自适应地提取低频和高频信号。此外,还讨论了图结构评估网络和统一目标函数在GNN框架中的重要性。
摘要由CSDN通过智能技术生成

报告:王   啸

撰文:熊宇轩

作者简介

王啸,北京邮电大学,助理教授。研究方向为图神经网络、数据挖掘与机器学习。曾任清华大学计算机系博士后,天津大学博士,美国圣路易斯华盛顿大学联合培养博士,入选2020年微软亚洲研究院铸星学者。

注:本文为「2021北京智源大会」报告,回放视频请关注:https://2021.baai.ac.cn/schedule

【专栏:前沿进展】在我们生活的世界中,图数据无处不在,我们可以用图来建模和描述我们的复杂系统。

从马克思主义哲学的角度来说,联系具有普遍性和客观性,所以正是因为联系的存在,万事万物都可以构建成图。

十年前,李国杰院士在「大数据研究的科学价值」一文中指出,复杂网络分析应该是数据科学的重要基石。「科学」研究的是普遍的现象、规律、真理,在数据科学研究领域中,我们可以将生物数据、交通数据、互联网数据、物理化学数据统一成图的形式,即关系网络。

图 1:网络表示学习

我们针对各种各样的图数据提出了相应的应用场景(例如,社区发现、节点分类等)。

为了将数据应用于具体的任务,我们往往首先需要对网络数据进行表征。

几十年以来,计算机从业者通常使用邻接矩阵来表示图和网络。随着表示学习、网络嵌入、深度学习的蓬勃发展,一系列图神经网络应运而生。如今,我们通过深度学习技术对图数据进行表示学习,并将学习到的表征用于后续的任务。

计算机科学家们基于前人在图信号处理领域(谱域)取得的一系列成果推导出了图神经网络的基本思路:在节点之间进行信息的传播聚合以及变换。

图2:GNN 的工作原理

如图 2 所示,图神经网络的每一层中进行的运算可以表示为:

其中, H^l 为第 l 层的节点表征,刻画了与节点相关的网络拓扑结构,信息在该拓扑结构上传播。最后,我们通过 θ 对节点特征进行提取和变换,再通过非线性激活函数得到下一层的节点表征 H^{l+1}。

从另一个角度来看,我们可以将上式视为先通过 θ 对 H 节点的特征进行特征提取和变换,此后再在网络上进行信息的传播和聚合,从而得到更新后的新网络表征。我们将多个图神经网络层的操作叠加起来,就得到了深度图神经网络。

图 3:对 GNN 的思考

目前,图神经网络(GNN)在节点分类等任务上取得了目前最优的性能,该工作流程之所以奏效,主要原因包含以下几点:

(1)GNN 很好地利用了图的结构,以一种非常自然的方式获取了图上邻居节点的信息。如果我们将单层图神经网络层的操作叠加 N 次,便可以获取某节点 N 阶邻居的信息,这种聚合信息的方式非常灵活。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值