神经网络特征图计算_GNNFiLM:基于线性特征调制的图神经网络

GNN-FiLM:基于线性特征调制的图神经网络

论文链接:https://arxiv.org/abs/1906.12192v3

源代码:https://github.com/Microsoft/tf-gnn-samples

ABSTRACT

文章介绍了一种线性特征调制feature-wise linear modulation (FiLM)新的图神经网络(GNN)。多数标准的GNN变体都是基于边的源节点表示通过边来传播信息。在GNN-FiLM, 目标节点的表示也会通过转换被应用到所有传入信息种,从而实现基于特征调制的信息传递。

论文在三个数据集PPI, QM9 和VarMiuse上进行了测试,并在自己机器上和多个baseline(GGNN, R-GCN, R-GAT, R-GIN),进行了比较。结果发现,以往的baseline之间的差别比文献报道要小,尽管如此,GNN-FiLM仍然在在分子图上的回归任务中优于基准方法,并在其他任务上表现出色。

1 INTRODUCTION

从图结构数据中学习的算法,在过去几年中呈现出爆炸式增长,因为图为模拟一系列广泛的具有类似节点的对象和类似边的已知的关系的数据提供了一种便捷的形式。

许多图学习方法都可以被总结为“图信息传递框架” neural message passing (Gilmer et al., 2017): 节点被初使化为一些表征,然后通过对他们的当前状态的转换,作为信息传递给其所有节点实现信息交换。在每个节点处,信息以某种方式聚合,然后用于更新关联节点的表示。在这样一种设置中,传递的信息完全由源节点(和潜在的边类型)所决定,并且不考虑目标节点。一个(稍微偏离一点的)例外是图注意力框架(Velickovic et al., 2018), 在这样的框架中一条边上目标节点的表示和源节点的表示相协调用来计算在“注意力”框架下带有权重的信息。然而,这样的权重会在同时应用于所有维度的信息。

一种简单的观察结果(对于算法)是从源和目标节点对中计算信息。但是,通常用于计算信息的线性层只是通过源节点和目标节点的表征进行简单加和。而复杂的转换方程通常是不现实的,因为GNN中的信息转换方程是占决定作用的。

然而,对于这种不同信息源的并不简单的相互作用的描述需求是神经网络设计中的常见问题。最近的一种趋势是使用超神经网络hypernetworks,使用神经网络计算其他神经网络的权重。在这样一种设计中,两个信号的相

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值