文献阅读18期:Learning Convolutional Neural Networks for Graphs

本文介绍了PATCHY-SAN,一种用于图卷积神经网络的方法,旨在解决传统CNN在处理图数据时的局限。通过节点序列选择、邻域确定、图标准化和卷积工作,PATCHY-SAN能够更好地捕捉图数据中的隐形信息,适用于图的分类和回归任务。文章详细阐述了PATCHY-SAN的四个实施步骤,并探讨了其在解决图表示和归一化问题上的贡献。
摘要由CSDN通过智能技术生成

[ 文献阅读·图神经网络 ] Learning Convolutional Neural Networks for Graphs [1]

推荐理由:本文考虑两个问题,一是训练一个可以用于未知图的函数,让未知图可以有效进行分类和回归问题求解。二是用于对未知图的特性进行预测(如点或边的缺失)。

1.摘要&简介

  • 本文的目的在于建立一种用于表达有向图或无向图的框架。
  • 如果要理解图神经网络的卷积,那就得先理解传统的卷积神经网络CNN。如图1所示,从图卷积的角度去看,CNN就像是一个遍历所有节点,然后固定每个点近邻数量的图神经网络(每个像素节点固定有8个近邻,这效率高么?似乎不高。):
    在这里插入图片描述
  • 在NLP当中同样有类似的问题,比如Skip-Gram和Cbow的窗口一旦固定,预测的信息来源也只有前后两个近邻:
    在这里插入图片描述
  • 但有没有考虑过这样一个问题,在图像识别的过程中,人眼、鼻、口的位置关系基本是差不多的,但在像素点上,他们距离太远,在像素序列上距离更远,举个例子,眼睛的一个像素点,周围的像素可能只有眼睛和皮肤,除非一个人五官挤在一起,那几乎不可能在眼睛像素点的近邻中出现鼻子的像素点。
  • 这种隐形关系的缺失,导致了图信息的缺失。
  • 在NLP问题中,这样的Graph信息缺失同样也很严重,比如:“我今天忘记带猫咪去打疫苗了。”在这句话中“我”和“猫咪”是主人和宠物的关系,但如果窗口大小为前后各2,那“我”字能“看见”的前后信息,只有“今天”和“忘记”,则主人和宠物这种人类看似很直觉的联系,就被排除在语义之外。(这个例子其实很粗,博主自己想的,大家近似理解一下就好)
  • 所以,图卷积这种“近邻数量自由”、“关系表达丰富”、“节点通信自由”的数据结构就能够从一定程度上解决隐形信息缺失的问题。
  • 本文提出的方法名叫PATCHY-SAN,力求解决以下两个问题:
    1. 确定一种或多种节点序列,并用它们创建邻域图;
    2. 计算邻域图的归一化,即,从图表示到向量空间表示的唯一映射。
  • 图2展示了PATCHY-SAN的结构:
    在这里插入图片描述

2.PATCHY-SAN的相关概念

  • 标记:本文定义了一个函数 ℓ \ell 用于节点的rank排序,也就是说将所有的节点映射为一个序列 V → S V \rightarrow S VS,当 ℓ ( u ) > ℓ ( v ) \ell(u)>\ell(v) (u)>(v)时rank有 r ( u ) < r ( v ) \mathbf{r}(u)<\mathbf{r}(v) r(u)<r
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值