GCN 翻译 - 1

ABSTRACT

我们提出了一种可扩展的在以图结构为基础的数据上的半监督学习,这种方法直接作用在图数据上,可以看做是卷积神经网络的变种。我们选择了图谱理论里面的一阶近似作为我们的卷积结构。我们的模型能够随着图的规模线性伸缩,并且隐藏层的表示能够将图的局部结构和节点的特征都编码进来。在一系列的引用网络和知识图谱数据集的实验中,我们证明了我们的方法在很大的幅度超过相关方法。

INTRODUCTION

我们考虑在一个图结构(例如引用网络)来给节点分类的问题,只有少量的节点有label数据。这个问题可以被定义为以图为基础的半监督学习,label信息能够通过凭借图为基础的规则平滑过渡。使用图Laplacian 正则项的loss function :

L =L _{0} + \lambda L_{reg}, with \, L_{reg} = \sum_{i,j}A_{ij}||f(X_{i}) - f(X_j) ||^{2} = f(X)^{T}\Delta f(X). \quad (1)

这里L_{0}表示关于图上有label部分的节点的监督损失函数。f(.)是一个像神经网络一样的可微函数。\lambda是权重因子, X是节点特征向量的矩阵X_i。对于一个无向图g = (\nu ,\varepsilon ),N个结点v_{i} \in \nu,边(v_i, v_j) \in \varepsilon,邻接矩阵A\in R^{N*N}(0-1或带权重的邻接矩阵)、度数矩阵D_{ii} = \Sigma_jA_{ij}\Delta = D- A表示非归一化的图拉普拉斯矩阵。公式(1) 依赖于图中连接的节点更有可能共享相同的节点label的假设。然而,这个假设可能限制模型的能力,因为图的边可以包含其他信息,不仅仅只是编码依赖编码点的相似性。

在这篇工作中,我们直接将图结构编码到神经网络模型f(X,A)并且对于所有有label的节点进行监督学习训练,这样可以避免特意在损失函数里面进行正则化。函数f(.)作用在邻接矩阵上能够让模型将梯度信息从监督损失L_0传播,能够让有label和没有label的节点都学习到表征。

我们的贡献分为2部分。第一,我们提出了一个简单但是有效的layer-wise传播的规则的神经网络模型,这个模型能够直接作用在图结构上,同时在理论上能够推导出它是谱域图卷积的一阶近似。第二,我们实践说明了这种基于图的神经网络能够快速的规模化的应用于图中节点的半监督分类。在一系列数据集上的实验说明我们的模型相比于目前最好的半监督分类方法在分类准确性和效率上都有优势。

  • 5
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值