图神经网络概述

一 什么是图神经网络

我是蓝色

1 神经网络的兴盛

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yEi1eJgt-1642334328286)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116180512436.png)]

在最近若干年内,随着算力计算的提升,大数据技术的成熟,极大的推动了深度学习神经网络的发展,在各个领域大放异彩,并且也推动了学术界与工业界对于模式识别与数据挖掘的研究。故以前很多依赖人工提取特征的机器学习任务,如:

  • 目标检测
  • 机器翻译
  • 语音识别
  • 图像识别扥

等都被各种端到端的深度学习范式,例如卷积神经网络(CNN)提取图像特征,Encoder-Decoder模式解决各种序列,长短期记忆LSTM平衡长期与短期关注等多支持,一时间仿佛所有的以前困扰着工业界的难题都得到了充分的解决。

不过纵观这些方法,有几个共同点:

  • 数据样本都是欧式空间的结构化数据(对于图像都是先做些预处理,处理成统一的尺寸)
  • 数据样本之间都是彼此独立,没有牵连,没有桎梏)

但是对于有些复杂的数据模式,可能目前的手段还是不能够充分的解决,下面就和大家娓娓道来。

2 数据的异构性

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Rr2ZWeKh-1642334328288)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116180723740.png)]

前面已经介绍过,从传统的深度学习神经网络算法来看,他们都有一个非常重要的共同的特点,那就是他们的数据都是规整的(结构化的,隶属于欧式空间),那么对于非结构化的数据,一种方法是把数据结构化,但是对于无法在欧式空间结构化描述的数据,传统的深度学习方法的表现是不太令人满意的。例如

  • 电商平台:基于用户与商品的交互构成一个综合交错的异构图,用户与商品之间的关系可以是曝光、点击、加购与购买等,并且用户与不同商品之间的关系也是有所不同,有些商品可能是特别喜欢,有些商品可能就是日常需要,但是有些商品可能就是看看而已,所以整个电商平台的用户与商品之间以及用户与用户之间的关系机及其复杂,双方有着千丝万缕的联系。
  • 微信朋友圈:对于微信这种社交产品而言,用户与用户之间编织成一张错中复杂的关系网,用户彼此之间,可能是一度人脉,也可能是二度人脉,也可能是同事关系,也可能是亲友关系,建立联系的时间和方式也是个不相同,而且还有用户之间的权限设置,比如一个人你不想让他看你的朋友圈,可以设置权限等,整个关系网纵横交错,端的是十分复杂。

对于类似上述的数据结构,传统的神经网络无法很好的表达与拟合。这是因为图结构是不规则的,同时图中的节点数量是大小可变,并且节点之间是无序的,同时每个节的相邻节点数量也是不同的。所以以往一些提取特征的利器(例如卷积)在图像(Image)上虽然很容易获得成功,但无法直接应用于图上。此外,现有深度学习算法的一个核心假设是数据样本之间彼此独立。然而,对于图来说图中的每个数据样本(节点)都会有边与其他数据样本(节点)有很强的相关性与依赖性。

那么对于这种不规则的、无序的、非结构的非欧式空间的数据,我们是不是就没有办法了呢?是不是就束手无策了呢?这个时候,聪明的学者们给我们提出了一个新的利器,图神经网络。

二 图神经网络

近年来,随着图形数据的挑战,人们对深度学习方法在如何在图上应用进行了广泛而深入的投入。最终研究人员借鉴了卷积网络、循环网络和深度自动编码器的思想,定义和设计了用于处理图数据的神经网络结构,由此一个新的研究热点——“图神经网络(Graph Neural Networks,GNN)”,下面我们就介绍下图神经网络。

在介绍图神经网络之前,我们先一起回顾下图的定义。

1 图

图(Graph / Network)数据类型可以自然地表达物体和物体之间的联系,在我们的日常生活与工作中无处不在。例如:微信和新浪微博等构成了人与人之间的社交网络;互联网上成千上万个页面构成了网页链接网络;国家城市间的运输交通构成了交通网络。

图最重要的两个概念:

  • 节点:图中的点,用于标注自然中的实体
  • 边:图中的连接线,用于标注实体之间的联系
  • 连通图:如果图中任意一对顶点都是连通的,则称此图是连通图

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-w7Wo7i3O-1642334328288)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116191851265.png)]

2 图神经网络综述

网上有很多介绍图的文章,一般要么只介绍图神经网络算法,要么是只介绍图嵌入的,也有图嵌入与图神经网络一起介绍的,但是基本没有和图存储一起介绍的。

根据个人的理解,我不自量力的将图神经网络总共应该包含三个部分,理由如下:

  • 图存储:用于存储图的拓扑网路结构,包含存储实体的节点与存储关系的边。对于整个图神经网络来说,图存储是就是基石,他的稳定性、丰富表达性、超大规模数据支撑性与超高的计算性能都是整体图神经网络的重中之重,是整个图神经网络的坚固的基座。
  • 图嵌入:用于从存储图数据的图存储中,提取原始特征,通过节点与节点的关系、节点边加权等信息,进行原始的提取。
  • 图神经网络:用于整合从图嵌入从得到的原始特征,进行神经网络的构建,最终进行用户的表征以及其他监督与非监督的学习。

2.1 图存储

图存储这边可以看下开源的程序的,开山之作就是阿里的欧拉,另外也有许多其他大公司的实现。其实基本都大同小异,本质都是对于节点和边的紧凑存储(非邻接矩阵模式)、充足的算法自由度(节点类型、节点特征、边权重与类型、边特征等自由定义)与超高的计算性能与扩展性的优秀实现,所以需要强大的工程能力。

图存储作为基石,对于图神经网络的构建起到至关重要的作用,不过八卦下,做算法框架的人吧,其实有时候挺悲催的,一锤子买卖,做完了,就没你的事儿了,剩下就是算法工程师的表现了。这可能也就是国内互联网的基建这么拉胯儿的原因吧。

2.2 图嵌入

图嵌入的方式比较多,大致有以下几种,下面简单介绍下,后续章节会进行详细描述。

  • Random Walk:基于随机游走的图嵌入通过使得图上一个短距的随机游走中共现的节点具有更相似的表示的方式来优化节点的嵌入。

  • DeepWalk:算法主要包含两个部分:一个随机游走序列生成器和一个更新过程,通过节点之间的关系生成图,在DeepWalk算法中,各个节点之间的权重默认为1,DeepWalk 涉及到的随机游走是一种可重复访问已访问节点的深度优先遍历(DFS)算法。给定起始节点,从该节点的邻居中随机选取访问节点,并将新的节点作为起始点继续探索,当该节点没有邻居或者达到序列长度时,退出循环。

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TZTg0jm0-1642334328289)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116192158001.png)]

  • node2vec:通过改变随机游走序列生成的方式进一步扩展了 DeepWalk 算法。DeepWalk 选取随机游走序列中下一个节点的方式是均匀随机分布的,而 node2vec 通过引入两个参数 p 和 q,将宽度优先搜索深度优先搜索引入了随机游走序列的生成过程。 宽度优先搜索注重邻近的节点并刻画了相对局部的一种网络表示, 宽度优先中的节点一般会出现很多次,从而降低刻画中心节点的邻居节点的方差, 深度优先搜索反映了更高层面上的节点之间的同质性。

2.3 图神经网络模型

图神经网络划分为五大类别,大家可以对照下传统的深度学习神经模型,其实很多都是都是新出了一个领域,把以前领域的经验Copy一遍,都是套路。

  • 图卷积网络(Graph Convolution Networks,GCN)
  • 图注意力网络(Graph Attention Networks)
  • 图自编码器( Graph Autoencoders)
  • 图生成网络( Graph Generative Networks)
  • 图时空网络(Graph Spatial-temporal Networks)

图神经网络把以往的传统神经网络道路基本又走了一遍,很多思想都是想通,所谓万法归一,道法自然吧,其实从来都没啥无中生有,有的只是发现而已。下面重点介绍下图卷积神经网络DCN吧,后续的待后面系列再介绍

三 图卷积神经网络GCN

GCN,图卷积神经网络,实际上跟CNN的作用一样,就是一个特征提取器,不同的是GCN的提取对象是不规则的图数据,并且可以像标准的CNN那样通过反向传播来训练特定任务的损失。

GCN精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction),还可以顺便得到图的嵌入表征(graph embedding),可见用途广泛。

GCN的公式看起来还是很吓人的,我记得去年读这个论文的时候,经常需要去翻一下我的数学书,总算是大体看明白了。整个公式的推导过程比较复杂,对于大多数人而言不需要去看推导过程,我们只需要掌握核心的过程就好,比如卷积神经网络CNN我只需要了解卷积层和池化层都做了什么就好,对于GCN而言我们也按照这个套路来就好。

论文地址:https://openreview.net/pdf?id=SJU4ayYgl,对于GCN公式推导有兴趣的读者可以去看看。

首先,我来看下GCN的整体网络结构,以下图片摘自论文SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fJlwOtR3-1642334328289)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116184916596.png)]

现在我们开始分析下图神经网络的结构,从这个图可以看到从输入层到输出层,节点的数量没有发生变化。

  1. 输入样本结构(图结构):假设基于某种图存储的图数据样本共有N个节点(node),每个节点都有自己的特征。

    1. 这些节点的特征组成一个N×D维的矩阵X;
    2. 各个节点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵(adjacency matrix)。
    3. 矩阵X和邻接矩阵A便是我们模型的输入。
  2. 传播方式:GCN也是一个神经网络层,它的层与层之间的传播方式是,这个公式中:

    • A波浪=A+I,I是单位矩阵
    • D波浪是A波浪的度矩阵(degree matrix)
    • H是每一层的特征,对于输入层的话,H就是X
    • σ是非线性激活函数

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3xOcPuGq-1642334328290)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116185909904.png)]

    • 并且论文中提出了快速的实现,精确的方案的一种近似,和多层化。似乎改动不大,但是效果显著。

      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LsplwrYT-1642334328290)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116195343956.png)]

      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZxyWEObW-1642334328291)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116195410068.png)]

  3. GCN输入一个图,通过若干层GCN每个node的特征从X变成了Z,但是,无论中间有多少层,node之间的连接关系,即A,都是共享的,并且输入层的节点数量

  4. 假设我们构造一个两层的GCN,激活函数分别采用ReLU和Softmax,则整体的正向传播的公式为:

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7Po0UV9m-1642334328291)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116185803395.png)]

  5. 当然,你也可以用这个方法去做graph classification、link prediction,只是把损失函数给变化一下即可。

  6. 例子

    1. 数据集

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PVK8Wtwu-1642334328292)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116195618710.png)]

    1. 实验结果

      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-czOeD6Kl-1642334328293)(/Users/dubaokun/Desktop/1 work/1.历练成长/进步成长/图片/image-20220116195657677.png)]

  7. 代码实现

    Pytorch实现:https://github.com/tkipf/pygcn

    Tensorflow实现:https://github.com/tkipf/gcn

参考文章

  • https://cloud.tencent.com/developer/article/1513016 跳出公式,看清全局,图神经网络(GCN)原理详解
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值