Introduction to Graph Neural Network(图神经网络概论)翻译:Chapter4:Vanilla Graph Neural Networks

4、Vanilla Graph Neural Networks(原始图神经网络)

在本节中,我们描述了Scarselli et al. [2009] 文章中提出的Vanilla GNN。此外,我们同时列出了Vanilla GNN在表示能力和训练效率方面的局限性。在本章之后,我们将讨论Vanilla GNN的集中变体。

4.1、 Introduction

GNN的概念最早是Gori et al. [2005], Scarselli et al. [2004, 2009]. 中提出的。为了简单起见,我们将讨论Scarselli et al. [2004, 2009]. 中提出的模型,该模型旨在扩展现有的神经网络来处理图结构数据。

一个节点自然由其特征及图中相关的节点定义。GNN的目标是为每一个节点学习一个状态embedding h v ∈ R s \mathbf{h}_v \in \mathbb{R}^s hvRs,该状态对领域的信息进行了嵌入编码。状态embedding h v \mathbf{h}_v hv用于产生一个输出 o v \mathbf{o}_v ov,如预测节点标签的分布。

Scarselli et al. [2009] 中,图4.1展示了一个典型的图结构,Vanilla GNN模型处理的是无向同构图,图中的每个节点都有其输入特征 x v \mathbf{x}_v xv,每个边同样有可能有自己的特征。文章中使用 c o [ v ] co[v] co[v] n e [ v ] ne[v] ne[v]表示节点 v v v边和领节点的集合。对于处理更加复杂的图如异构图,可以在后面的章节中找到GNN相应的变体。
在这里插入图片描述

4.2 Model

给定了节点和边的输入特征,接下来我们就讨论模型如何获得节点embedding h v \mathbf{h}_v hv和输出embedding o v \mathbf{o}_v ov

为了根据输入领域更新节点状态,有一个参数函数 f f f,称之为局部过渡函数,其所有节点共享。为了产生节点的输出,有一个参数函数 g g g,称之为局部输出函数,那么, h v \mathbf{h}_v hv o v \mathbf{o}_v ov的定义如下:
h v = f ( x v , x c o [ v ] , h n e [ v ] , x n e [ v ] ) (4.1) \mathbf{h}_v=f(\mathbf{x}_v,\mathbf{x}_{co[v]},\mathbf{h}_{ne[v]},\mathbf{x}_{ne[v]}) \tag{4.1} h<

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值