Graph Neural Networks: A Review of Methods and Applications-2018-arXiv论文阅读笔记

本文是关于2018年arXiv论文《Graph Neural Networks: A Review of Methods and Applications》的阅读笔记,探讨了图神经网络在社交网络、生物系统、知识图谱等领域的应用,以及其作为CNN特性的拓展和graph embedding的改进。文章介绍了图神经网络的无序性、边特征学习和图推理等问题,以及模型包括原始图神经网络、变体和通用框架,如Message Passing Neural Networks。
摘要由CSDN通过智能技术生成

首先决定看这篇论文是直接在知乎上搜索“图卷积”,看到的一篇总结:图神经网络综述:模型与应用 - 张俊的文章 - 知乎。这篇总结主要是总结了标题中这篇论文大概都介绍了什么,于是觉得这篇论文很有必要阅读。

1. Introduction

图神经网络的应用

图是一种数据结构,能够将物体及其关系建模为结点node和边edge得益于其强大的表示能力,图神经网络主要应用在以下几个方面:

  • 社交网络
  • 自然科学(生物系统,protein-protein interaction networks)
  • 知识图谱

图神经网络的动机

  1. 第一个动机——卷积神经网络
    卷积神经网络能够提取多尺度的局部空间特征,为机器学习领域带来很大的突破,但是卷积神经网络只作用在规则的欧几里得数据,比如1D序列,2D网格状数据。但是这些数据结构可以看做是图这种数据结构的一个实例,或者说一种特殊情况。卷积神经网络有以下几个特性:
  • 稀疏链接(或者叫局部连接)
  • 权重共享
  • 多层叠加
    (之前的博客中也有总结过卷积神经网络:《深度学习第九章》——阅读笔记
    这几特性在解决图领域的问题中也尤为重要:
  • 图是最典型的一种局部连接结构
  • 权重共享同样可以减少计算量(这句太懂,谱域图理论不清楚:shared weights reduce the computational cost compared with traditional spectral graph theory [10].)
  • 多层结构同样可以通过感受野的增大捕获不同尺度的特征
    因此我们很容易就想到将应用于欧几里得空间的CNN泛化到非欧几里得图领域。然而正如图1中显示的,我们很难定义一个局部卷积核和池化操作:
    在这里插入图片描述
  1. 第二个动机——graph embedding
    什么是graph embedding呢?从字面上理解就是嵌入图。这应该是自然语言处理领域中的术语,我也不是很懂,就说说自己浅显的理解:
    graph embedding是基于表示学习的一种方法,什么是表示学习呢?一本书上是这样说的:

     learning representations of the data that make it easier to extract useful information when building classifiers or other predictors。graph embedding
    

    意思就是用图先将数据表示出来。
    之前的一些graph embedding的方法有两个缺陷:

    • 参数不共享,造成计算量和结点个数成正比;
    • 直接将图嵌入,缺乏泛化能力,无法处理动态图或者泛化为新的图。
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值