【论文解读】GCN论文总结

本次要总结和分享的是ICLR2017的关于GCN方面的代表作之一论文:SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS,论文链接为 paper[1],参考的实现代码为pygcn[2]

文章目录

  • 先导知识

  • 论文动机

  • 模型

    • 切比雪夫逼近卷积核函数

    • 图上的快速近似卷积

    • 半监督节点分类

  • 实验

  • 核心代码分析

  • 个人总结

先导知识

在读这篇论文之前,需要对先导论文 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering 有着深入的理解,否则里面数学推导会让人感到迷茫。关于该先导论文,之前的博文已经对其推导过程进行了详细分析,Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering[3]

GCN论文阅读总结

感兴趣可以一看,因为其数学推导过程比较复杂,下面进行下简单梳理:

  1. 回顾卷积定义

    在维基百科里,可以得到卷积操作的定义: 的卷积

  • 离散形式

  • 连续形式

  • 用傅里叶变换来表示卷积

    表示傅里叶变换, 傅里叶逆变换

    也即是:即对于函数 两者的卷积是其函数傅立叶变换乘积的逆变换

  • 在graph上的卷积形式推导过程

    上式中的 表示卷积核函数(带参数), 表示是graph的邻接矩阵 的拉普拉斯矩阵 的特征向量

    由此得到图上的卷积形式:

    其中 为激活函数, 就是卷积核,注意 为拉普拉斯矩阵 特征值组成的对角矩阵,所以 也是对角的

    推导可得卷积核函数 如下:

    继续推导可得:

    上式中 为graph的邻接矩阵A的拉普拉斯矩阵, 为卷积核参数。

  • 切比雪夫逼近卷积核

    其中 表示切比雪夫多项式, 表示模型需要学习的参数, 表示re-scaled的 特征值对角矩阵,进行这个shift变换的原因是Chebyshev多项式的输入要在 之间,因此  ( 的最大特征值)

    由此可以进行递推逼近:

  • 熟悉了上述推导过程,那么对于本文要总结的论文理解起来就简单多了。

    论文动机

    • 考虑对图(如论文引用网络)中的节点(如文档)进行分类的问题,其中仅有一小部分节点带有label信息。这个问题可以被定义为基于图的半监督学习,其中标签信息通过某种形式的基于图的显式正则化在图上进行平滑,比如在损失函数上加上拉普拉斯正则项,但是这种做法的前提假设是:在图中相邻连接的节点可能拥有相似的标签信息,这种假设可能会限制建模能力,因为图中的边不一定连接拥有相似的节点,但可能包含额外的信息。

    • 本论文所提方法,能直接对graph进行编码,避免了正则平滑, 作用在图的邻接矩阵上进行有监督学习,并且能学习到每个节点的embedding向量。

    • 本论文受上面所提到的先导论文启发,限制切比雪夫多项式 ,提出了一种可在图上进行快速卷积的模型,并且提出了 ,在数学上进行了推导,证明了该模型的合理性;同时展示了这种基于图的神经网络模型如何进行半监督的分类。

    模型

    该部分直接在先导知识基础上进行数学公式的推导,最终得到本论文所提的模型。

    切比雪夫逼近卷积核函数

    在先导知识中,卷积核可等于

    则有:

    图上的快速近似卷积

    在切比雪夫逼近卷积核函数时,本论文中限制其切比雪夫项数 ,同时进一步近似 ,则可得:

    可以看出上述公式是一种线性的变换。

    在 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering[4] 中,分析过,切比雪夫的项数就是就是图卷积的感受野,而这里限制了项数 K= 1,相当于只做了所谓的 first-order approximation,每个节点考虑其一阶邻居对他的影响。

    这样做有一些好处的,比如能够缓解局部邻域结构的过度拟合问题,同时这种分层线性的计算方式,允许我们构建更深层次的模型,可以提高建模能力,比如当叠加两层的卷积时,相当于每个节点可以把 2-hops 邻居的特征加以聚合。这样就避免了k=1时只能考虑一阶邻居的影响了。

    进一步的,为了限制模型参数,降低每层的计算等,令 ,则有:

    的特征值在 范围来,当网络叠加更多层时,容易出现梯度消散/爆炸的问题。论文中提出了 ,即:

    注意:从数学公式的推导上看在 的基础上处理是合理的,同时从分析上看也是合理的,因为邻接矩阵 对角线为0,在卷积时,每个节点只能聚合其相邻节点特征,却忽略了自身特征,因此加上 本身也是有必要的。这种 的操作可理解为 ,也即增加自循环。

    这种 操作,保证了结果的对称性,同时做到了近似归一化。 ,针对不同的数据集, 取值不一样,

    因此卷积过程可表达为如下:

    上式中 为样本数量, 为输入通道数(也就是每个节点的特征向量维度), 为卷积核参数矩阵, 为卷积后的矩阵。

    上式可以形象的以下图表示:

    半监督节点分类

    上图中 表示每个输入节点的特征向量维度, 表示卷积后的feature_maps个数,多层叠加时,最后一层F为类别个数。

    上面我们得到:

    这里记: ,这一步可以在预处理阶段计算好,叠加两层卷积,则可以得:

    上式中, 为样本数量, 为输入通道数(也就是每个节点的特征向量维度), 为 输入层到隐藏层的参数矩阵,是模型需要学习的,有 为隐藏层到输出层的参数矩阵,是模型需要进行学习的。卷积结果为 F可理解为类别个数

    上述公式中是以row-wise进行softmax, 可理解为属于某个类别的logits, 可理解为属于所有类别的logits。则模型的损失函数可表示为如下:

    上式其实就是多分类上的cross entropy loss,中 为带标签的节点数量。注意第二项是在 上计算。

    通过上面的推导分析,我们可以得到本论文图卷积的数学公式如下: 上式中 表示卷积的隐藏层个数(叠加层数,可聚合节点本身与其 的节点特征,可理解卷积感受野), 表示第 层的隐藏层输出,刚开始 表示模型需要学习的参数矩阵。注意在叠加多层时, 是不变的

    单从这个公式来看,本论文所提的图上的卷积方式其实很简单的。

    实验

    数据集:论文中用到了上述四个数据集,上表中展示了每个数据集的节点数量、边的数量、类别数、特征维度、带标签节点占比。

    以Citation network(Citeseer,Cora,Pubmed)举例,该网络是大量文档组成,以文档为节点,以是否有"引用“来连边。其中每个节点的原始输入特征有词袋特征来定义获得,每个节点都有唯一所属的类别(class label)。由此构成了一张图。

    实验的一些参数等设置,这里就不详叙述了。

    实验结果:上图的实验中,评价指标为节点分类的ACC,加粗的GCN(this paper) 为论文中的所提的有两层叠加的图卷积网络,GCN(rand,splits) 与GCN(this paper) 网络结构一样,只不过数据集划分上不一样而已。由上图可以看出,本论文提出的GCN网络分类效果最好。

    除此之外,论文中还和以往的一些GCN网络进行了对比实验:

    在这里插入图片描述

    显然也是本论文中所提的带有Renormalization trick的GCN效果最好。

    核心代码分析

    抛开一系列的数学推导不管,其实本论文所提的图卷积方法可用数学公式表示如下:

    初始时: ,而 始终是不变的,可以提前计算好。因此代码实现起来其实非常简单了。

    代码参考的是pygcn[5]

    开源代码中使用的数据集是Cora dataset,关于文档引用的数据集,文档定义为图中的节点,文档间是否有引用关系定义为边。由词袋特征作为节点初始特征,任务是对节点进行分类。

    pygcn/data/cora/ 下有两个文本文件

    • cora.cites 每行格式如:ID of cited paper \t ID of citing paper

    • cora.content 每行格式如:paper_id  word_attributes class_label

    加载上述两个文件,进行构图,得到归一化后的邻接矩阵、提取节点特征、label等

    def load_data(path="../data/cora/", dataset="cora"):
        """Load citation network dataset (cora only for now)"""
        print('Loading {} dataset...'.format(dataset))
    
        idx_features_labels = np.genfromtxt("{}{}.content".format(path, dataset),
                                            dtype=np.dtype(str))
        features = sp.csr_matrix(idx_features_labels[:, 1:-1], dtype=np.float32)
        labels = encode_onehot(idx_features_labels[:, -1])
    
        # build graph
        idx = np.array(idx_features_labels[:, 0], dtype=np.int32)
        
        ## 获得每个paper_id在cora.content中所在的行数
        idx_map = {j: i for i, j in enumerate(idx)} 
        edges_unordered = np.genfromtxt("{}{}.cites".format(path, dataset),
                                        dtype=np.int32)
                                        
     ## 将有连接的一对节点(paper_id在cora.content的行数)作为一行,生成一个np.array
        edges = np.array(list(map(idx_map.get, edges_unordered.flatten())),
                         dtype=np.int32).reshape(edges_unordered.shape)
        
        ## 邻接矩阵A,有边为1,反之为0
        adj = sp.coo_matrix((np.ones(edges.shape[0]), (edges[:, 0], edges[:, 1])),
                            shape=(labels.shape[0], labels.shape[0]),
                            dtype=np.float32)
    
        # 将有向边变成对称的无向边
        adj = adj + adj.T.multiply(adj.T > adj) - adj.multiply(adj.T > adj)
     
     ## 归一化
        features = normalize(features)
        adj = normalize(adj + sp.eye(adj.shape[0]))
    
        idx_train = range(140)
        idx_val = range(200, 500)
        idx_test = range(500, 1500)
    
        features = torch.FloatTensor(np.array(features.todense()))
        labels = torch.LongTensor(np.where(labels)[1])
        adj = sparse_mx_to_torch_sparse_tensor(adj)
    
        idx_train = torch.LongTensor(idx_train)
        idx_val = torch.LongTensor(idx_val)
        idx_test = torch.LongTensor(idx_test)
    
        return adj, features, labels, idx_train, idx_val, idx_test
    
    def normalize(mx):
        """Row-normalize sparse matrix"""
        rowsum = np.array(mx.sum(1))
        r_inv = np.power(rowsum, -1).flatten()
        r_inv[np.isinf(r_inv)] = 0.
        r_mat_inv = sp.diags(r_inv)
        mx = r_mat_inv.dot(mx)
        return mx
    

    显然上述的邻居矩阵的归一化为这种形式: ,而非 。矩阵的归一化有多种,在上面的实验分析部分也做了不同归一化的对比。因此在实际实验中,可进行尝试,选择效果较好的一种。

    class GCN(nn.Module):
        def __init__(self, nfeat, nhid, nclass, dropout):
            super(GCN, self).__init__()
    
            self.gc1 = GraphConvolution(nfeat, nhid)
            self.gc2 = GraphConvolution(nhid, nclass)
            self.dropout = dropout
    
        def forward(self, x, adj):
            x = F.relu(self.gc1(x, adj))
            x = F.dropout(x, self.dropout, training=self.training)
            x = self.gc2(x, adj)
            return F.log_softmax(x, dim=1)
    

    上述的GCN代码就很简单的,就是叠加了两层卷积的网络,在实际训练时,网络的输入是 和归一化后的邻接矩阵 ,具体可再看这个卷积是怎么做的,代码如下:

    class GraphConvolution(Module):
        """
        Simple GCN layer, similar to https://arxiv.org/abs/1609.02907
        """
    
        def __init__(self, in_features, out_features, bias=True):
            super(GraphConvolution, self).__init__()
            self.in_features = in_features
            self.out_features = out_features
            self.weight = Parameter(torch.FloatTensor(in_features, out_features))
            if bias:
                self.bias = Parameter(torch.FloatTensor(out_features))
            else:
                self.register_parameter('bias', None)
            self.reset_parameters()
    
        def reset_parameters(self):
            stdv = 1. / math.sqrt(self.weight.size(1))
            self.weight.data.uniform_(-stdv, stdv)
            if self.bias is not None:
                self.bias.data.uniform_(-stdv, stdv)
    
        def forward(self, input, adj):
            support = torch.mm(input, self.weight)
            output = torch.spmm(adj, support)
            if self.bias is not None:
                return output + self.bias
            else:
                return output
    
        def __repr__(self):
            return self.__class__.__name__ + ' (' \
                   + str(self.in_features) + ' -> ' \
                   + str(self.out_features) + ')'
    

    上面代码主要看forward部分即可,显然实现的就是 操作而已。

    个人总结

    • 本论文模型上的创新点主要有: 提出了在图上的快速卷积的模型(K=1),第二是提出了renormalization_trick

    • 在限制K=1时,大大限制了模型参数数量,同时可实现多层的叠加,当叠加l层时,可聚合节点自身及其l-hops的节点特征。叠加层数越大,卷积感受野越大。

    • 抛去繁杂的数学公式推导,感性理解本论文所提出的快速卷积,其实非常简单:

    参考资料

    [1]

    paper: https://arxiv.org/pdf/1609.02907.pdf

    [2]

    pygcn: https://github.com/tkipf/pygcn

    [3]

    Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering: https://blog.csdn.net/Mr_tyting/article/details/108916787

    [4]

    Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering: https://blog.csdn.net/Mr_tyting/article/details/108916787

    [5]

    pygcn: https://github.com/tkipf/pygcn

    
    往期精彩回顾
    
    
    
    适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
    AI基础下载机器学习的数学基础专辑温州大学《机器学习课程》视频
    本站qq群851320808,加入微信群请扫码:
    
    
  • 3
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值