Convolutional Kernel Networks for Graph-Structured Data笔记

keywords: CKN, Nyström方法, RKHS, graph, kernel
作者: Dexiong Chen, Julien Mairal, Laurent Jacob
原文: Convolutional%20Kernel%20Networks%20for%20Graph-Structured%20f955a167b075436e93b7f97801eaaffa/Convolutional_Kernel_Networks_for_Graph-Structured_Data.pdf
发表时间: 2020
方法: 类似于CKN,只是针对图结构的数据,使用图核构建核映射。将图中的路径属性提取出来,使用kernel映射到H空间中,再通过Nyström方法:映射到有限维子空间中,在子空间中进行池化形成新的特征映射。filter可以使用无监督方式利用k-means算法映射到子空间得到,也可以通过有监督的反向传播得到。
源代码: https://github.com/claying/GCKN
精读: Yes
结论: GCKN容易正则化,任务适配,在分类数据集上表现良好,但是比GNN更加难计算。
实验:图像分类
问题: 将GNN和核方法结合起来,解决图像分类问题

Summary

这篇论文是专门针对图结构的数据提出了一种新的方法,该方法将GNN核方法结合起来,叫做GCKN——Graph Convolutional Kernel Networks。论文也介绍了多层图核,主要包括walks kernelpath kernelWL subtree kernel,论文基于这些核提出了GCKN。一方面,GCKN中的kernel提供了一种无监督的、有表现力的、易于规范化的数据表示,在训练样本数量较少时非常有用另一方面,GCKN也可以在大规模数据上进行端到端的学习,从而产生一种新的图卷积神经网络。

Introduction & Related work

背景介绍:图核可以生成好的经验结果,但是数据表示却和模型学习过程是解耦的。为了让图核产生特定于任务的数据表示,图神经网络诞生了,它与卷积神经网络类似,但是多层模型结构是图结构的,图神经网络比核方法更加难正则化。

GNN和核方法有不同的特点,但是在图像建模中,它们可以结合起来解决问题,有两种相反的联合方式:

  • 有一类GNN的输出存在于WL核的再生核希尔伯特空间(RKHS)中。这是利用核构建GNN,最后的模型训练为典型的神经网络。
  • 利用GNN架构设计一种新的核,等价于用随即权重和梯度下降初始化的无限宽GNN。

还有其他方法:

  • 利用由图核诱导的度量来初始化GNN。
  • 利用图核来获得插入到神经网络的连续嵌入

本篇论文提出一种显示多层核表示,可以被用来作为传统的核方法,当数据多时,可以训练为GNN用来进行端对端的学习。

Walks and Path kernels

如果p和p’的属性相等,那么σ的值为1;否则为0。k_base(u,u’)核含义是两个不同的图的path集合的属性相等的path的数量。
在这里插入图片描述
延伸:两个图中长度到k的所有path的属性相等的数量
在这里插入图片描述

Walks kernel:把P替换成W

Weisfeiler-Lehman subtree kernels

WL子树核比较子树模式而不是子树,这种核捕获子树模式,它通过迭代地聚合和散列每个节点邻居的属性来增加节点属性。
在这里插入图片描述

其中
在这里插入图片描述

属性 a i ( u ) a_i(u) ai(u)捕获以节点u为根的深度为i的子树模式
在这里插入图片描述

Graph Convolutional Kernel Networks

图特征映射φ

  • 定义:φ从节点空间V到空间H,就是把V中的一个节点和H中的一个点关联起来,H中的点表示局部图子结构的信息。
    在这里插入图片描述

  • 特点:依赖于图G,可以看作是描述G中节点的空间H的|V|个元素的集合

  • 与图G、G‘的映射φ、φ’联系起来的定义式:

在这里插入图片描述

其中
在这里插入图片描述

特征映射的单层网络构建

path kernel的连续性松弛

Dirac函数替换成 κ 1 \boldsymbol{\kappa_1} κ1,允许使用连续性属性,而且可以进行路径之间的不精确比较。

在这里插入图片描述

从图特征映射φ0到图特征映射φ1

  • φ0是从节点(边)映射到在欧氏空间表示属性的H0

  • 相反, ϕ 1 p a t h \phi_1^{path} ϕ1path是高斯核 κ 1 \boldsymbol{\kappa_1} κ1的核映射,将边p映射到以φ0§为中心的高斯函数。

在这里插入图片描述

  1. 第一步是从节点u中提取长度为k(这里用红、蓝、绿三种颜色表示)的路径;
  2. (在右侧面板)通过高斯核映射将它们映射到RKHS H j + 1 \mathcal{H_{j+1}} Hj+1。在节点u处通过它们在 H j + 1 \mathcal{H_{j+1}} Hj+1的表示的局部路径聚合(池化)得到新的映射 φ j + 1
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值