[EGNN] Exploiting Edge Features for Graph Neural Networks 利用图神经网络的边特征 论文详解 CVPR 2019

论文:Exploiting Edge Features for Graph Neural Networks(利用图神经网络的边特征 )
有的地方为:Exploiting Edge Features in Graph Neural Networks

作者:Liyu Gong,Qiang Cheng

来源:CVPR 2019

论文链接:http://openaccess.thecvf.com/content_CVPR_2019/papers/Gong_Exploiting_Edge_Features_for_Graph_Neural_Networks_CVPR_2019_paper.pdf

github链接:未开源代码

Graph convolutional networks (GCN) 和Graph attention networks (GAT) 不能充分的利用edge features。为了充分利用edge features, 本文作者提出提出了一个新的框架EGNN来增强当前的图神经网络模型,例如GCN和GAT。

文中使用了GCN中的引文网络数据集和其他一些分子数据集实验,证明了EGNN能充分利用图中的边的信息,和GCN、GAT相比,EGNN性能更好,分类准确率更高。

1 简介

1.1 GAT和GCN的局限性

GAT和GCNs之间的本质区别在于聚集邻居权值的方式不同:在GCNs中,用于聚集(过滤)邻居节点的权值是由独立于节点embedding的图拓扑结构定义的;而在GAT中,由于注意力机制,权值是节点embedding的函数。对图节点的分类结果表明,GAT的自适应能力使得融合节点特征和图拓扑结构的信息更加有效。

两个局限

  • 没有充分使用边的特征:GAT没有充分利用边的信息,只利用到了连接性,即在邻接矩阵中值为1表示有连接,值为0,表示不相连。然而,图中的边通常具有很多信息,例如强度、类型等。并且不仅仅是二进制的变量,可能是连续的、多维的。
    GCN能够利用一维的边的特征,也就是边的权重,但是仅限于使用一维的边的特征。

  • 原始邻居矩阵可能存在噪声:每个GAT或GCN层根据作为输入的原始邻接矩阵过滤节点特征。原始邻接矩阵可能存在噪声且不是最优的,这将限制滤波操作的有效性。

1.2 EGNN的创新点
  • 能够充分地利用多维的边的特征。它克服了GAT只能使用二进制边特征和GCN只能使用一维边特征的局限
  • 双随机边归一化。文中建议将边的特征矩阵规范化为双随机矩阵,这在去噪方面表现出不错的改进的性能[Network Enhancement: a general method to denoise weighted biological networks]。
  • 跨神经网络层的基于注意的边的自适应能力。EGNN不仅可以过滤节点特征,而且可以跨层调整边的特征。利用这种新的体系结构,当通过网络层传播时,边的特征适应局部内容和全局层。
  • 对有向边编码多维边的特征。文中提出了一种方法可以将边的方向编码成多维的边的特征。因此,EGNN可以有效的处理有向的图数据。

2 相关工作

提取非欧氏距离的图数据的特征的一些方法:
(1)传统的机器学习核方法:

(2)基于矩阵分解的embedding方法

  • Laplacian Eigenmap (LE):Laplacian Eigenmaps and Spectral Techniques for Embedding and Clustering,NIPS 2001
  • Graph Factorization (GF) algorithm:Distributed Large-scale Natural Graph Factorization,WWW 2013
  • GraRep:GraRep: Learning Graph Representations with Global Structural Information,2015
  • HOPE:Asymmetric Transitivity Preserving Graph Embedding,SIGKDD 2016

(3)基于随机游走的方法

  • DeepWalk
  • node2vec
  • LINE
  • HARP

基于随机游走和矩阵分解的方法有几点局限性

  • 将特征映射到低维向量空间的embedding function是线性的或太过简单,不能捕获复杂的信息
  • 都没有融合节点特征
  • 是transductive的,在训练期间要求整个图的结构信息

针对上述问题的解决方案

  • 使用深度学习神经网络可以表示复杂的特征,并且可以通过梯度下降方法来优化
  • 为了将图节点嵌入到欧氏空间中,采用深度自编码器从节点相似矩阵或邻接矩阵中提取连接模式。例如,Deep Neural Graph Representations (DNGR),Structural Deep Network Embeddings (SDNE)

尽管基于自编码的方法能够捕获比基于矩阵分解和随机游走的方法更复杂的模式,但是它们仍然不能利用节点特性。最新的方法是使用GCN、GAT等新型的网络结构。

3 EGNN网络

3.1 符号定义
  • X X X是一个 N × F N × F N×F的矩阵,表示全图的节点的特征
  • X i j X_{ij} Xij表示第 i i i个节点的第 j j j个特征
  • X i X_{i} Xi表示第 i i i个节点的 F F F维的特征
  • E E E是一个 N × N × P N × N × P N×N×P的tensor,表示图上边的特征
  • E i j E_{ij} Eij表示连接节点 i i i和节点 j j j的边的 P P P维的特征向量
  • E i j p E_{ijp} Eijp表示 E i j E_{ij} Eij中的第 p p p个通道
  • E i j = 0 E_{ij}=\bf{0} Eij=0表示节点 i i i和节点 j j j之间没有边连接
  • N i \mathcal{N}_i Ni表示节点 i i i的邻居集合
3.2 EGNN和GNN的对比
  • 左图:GNN层,每个层可能是一个GCN或GAT层。
  • 右图:EGNN层,是GNN加了边的特征的增强版。

EGNN有两点不同于GNN:

  • 邻接矩阵使用不同:传统GNN的邻接矩阵就是a binary matrix(0或者1),表示各个点的邻居关系,GAT也是这样。在GCN中,邻接矩阵是一个都是正值的矩阵,每个值都是一维的边的特征。
    而EGNN的邻接矩阵是多维的正值矩阵。(矩阵中每个值都有多个维度,来表示每条边的多个属性)
  • 邻接矩阵的喂法:传统GNN每一层都输入相同的邻接矩阵A,而EGNN中,在输入到下一层之前,每一层的边的特征都在改变。

除此以外,还有以下特点:

  • EGNN中每层的边的特征的维度是不变的,都是 N × N × P N × N × P N×N×P
  • EGNN中的 E 0 E^0 E0是根据Doubly stochastic normalization已经归一化的
  • 对于节点分类问题,沿着最后一个维度,每个节点embedding vector X i L X_{i}^{L} XiL都应用一个softmax operator
  • 对于整个图的预测(分类或者回归),在 X L X^{L} XL的第一个维度应用一个池化层pooling layer使得特征矩阵简化为一个整个图的单个vector embedding。然后一个全连接层应用于该向量上,全连接层的输出可以被用来做回归的预测,或者是分类。
3.3 Doubly stochastic normalization of edges 边的双向随机归一化

在形卷积运算中,利用边的特征矩阵作为滤波器,将节点特征矩阵相乘。为了避免乘法增加输出特征的规模,需要对边的特征进行归一化处理:

E ~ i j p = E ^ i j p ∑ k = 1 N E ^ i k p (1) \tag{1} \tilde{E}_{i j p} =\frac{\hat{E}_{i j p}}{\sum_{k=1}^{N} \hat{E}_{i k p}} E~ijp=k=1NE^ikpE^ijp(1)

E i j p = ∑ k = 1 N E ~ i k p E ~ j k p ∑ v = 1 N E ~ v k p (2) \tag{2} E_{i j p} =\sum_{k=1}^{N} \frac{\tilde{E}_{i k p} \tilde{E}_{j k p}}{\sum_{v=1}^{N} \tilde{E}_{v k p}} Eijp=k=1Nv=1NE~vkpE~ikpE~jkp(2)

  • E ^ \hat E E^表示未加工的边的特征, E ^ \hat E E^的所有元素都是非负的
  • E E E表示归一化以后的边的特征

很容易验证归一化以后的边的特征 E E E满足以下特点

E i j p ≥ 0 (3) \tag{3} E_{i j p} \geq 0 Eijp0(3)

∑ i = 1 N E i j p = ∑ j = 1 N E i j p = 1 (4) \tag{4} \sum_{i=1}^{N} E_{i j p} =\sum_{j=1}^{N} E_{i j p}=1 i=1NEijp=j=1NEijp=1(4)

  • 边的特征矩阵 E . . p E_{..p} E..p的每一个维度 p = 1 , 2 , . . . , P p=1,2,...,P p=1,2,...,P都是一个行和列的和都是1的值为正数的方阵
  • 上述方阵都是双向随机矩阵,都是左随机和右随机的

Doubly stochastic matrices (DSMs)有很多不错的性质:对称的,positive semi-definite(半正定的),最大特征值为1。

双向随机归一化的优点
在多层网络的diffusion期间,边的特征矩阵会在不同的层之间重复相乘,使用双向随机归一化能够避免边的特征矩阵的爆炸和衰减为0的问题,可以使得整个过程更稳定。
双随机矩阵在图的边的去噪中的有效性在nature论文(Network Enhancement: a general method to denoise weighted biological networks,2018)中得到了验证

不同归一化方法的对比

  • GAT中使用的是行归一化

E i j p = E ^ i j p ∑ j = 1 N E ^ i j p (5) \tag{5} E_{i j p}=\frac{\hat{E}_{i j p}}{\sum_{j=1}^{N} \hat{E}_{i j p}} Eijp=j=1NE^ijpE^ijp(5)

  • GCN中使用的是对称归一化
    E i j p = E ^ i j p ∑ i = 1 N E ^ i j p ∑ j = 1 N E ^ i j p (6) \tag{6} E_{i j p}=\frac{\hat{E}_{i j p}}{\sqrt{\sum_{i=1}^{N} \hat{E}_{i j p}} \sqrt{\sum_{j=1}^{N} \hat{E}_{i j p}}} Eijp=i=1NE^ijp j=1NE^ijp E^ijp(6)
3.4 EGNN(A): Attention based EGNN layer

GAT模型只能处理单维的二进制边的特征,即,注意力机制是在邻居的节点特征上定义的,没有考虑实值边的特征,如权值。针对多维正实值边的特征问题,文中提出了一种新的注意力机制。这种注意力机制同时聚合了节点的特征和对应边的特征

X l = σ [ ∥ p = 1 P ( α . . p l ( X l − 1 , E . . p l − 1 ) g l ( X l − 1 ) ) ] (7) \tag{7} X^{l}=\sigma\left[\Vert_{p=1}^{P}\left(\alpha_{..p}^{l}\left(X^{l-1}, E_{..p}^{l-1}\right) g^{l}\left(X^{l-1}\right)\right)\right] Xl=σ[p=1P(α..pl(Xl1,E..pl1)gl(Xl1))](7)

  • α \alpha α是生成一个 N × N × P N × N × P N×N×P的tensor的函数, α . . p \alpha_{..p} α..p是第 p p p个通道的函数
  • α l \alpha^l αl就是注意力系数,
  • g g g是一个将节点特征从输入空间映射到输出空间的转换函数

g l ( X l − 1 ) = W l X l − 1 (8) \tag{8} g^{l}\left(X^{l-1}\right)=W^{l} X^{l-1} gl(Xl1)=WlXl1(8)

  • W l W^{l} Wl是一个 F l × F l − 1 F^{l} \times F^{l-1} Fl×Fl1的参数矩阵

α . . p l = DS ⁡ ( α ^ . . p l ) (9) \tag{9} \alpha_{..p}^{l} =\operatorname{DS}\left(\hat{\alpha}_{..p}^{l}\right) α..pl=DS(α^..pl)(9)

α ^ i j p l = f l ( X i . l − 1 , X j . l − 1 ) E i j p l − 1 (10) \tag{10} \hat{\alpha}_{i j p}^{l} =f^{l}\left(X_{i.}^{l-1}, X_{j.}^{l-1}\right) E_{i j p}^{l-1} α^ijpl=fl(Xi.l1,Xj.l1)Eijpl1(10)

  • DS就是双向随机归一化操作
  • f f f可以是由两个输入向量产生标量值的任何普通注意力函数,文中为了简化,使用一个线性的函数作为注意力函数

f l ( X i . l − 1 , X j . l − 1 ) = exp ⁡ { L ( a T [ W X i . l − 1 ∥ W X j . l − 1 ] ) } (11) \tag{11} f^{l}\left(X_{i.}^{l-1}, X_{j.}^{l-1}\right)=\exp \left\{\mathrm{L}\left(a^{T}\left[W X_{i.}^{l-1} \| W X_{j.}^{l-1}\right]\right)\right\} fl(Xi.l1,Xj.l1)=exp{L(aT[WXi.l1WXj.l1])}(11)

  • L L L代表LeakyReLU激活函数
  • W W W和公式(8)中的一样
  • ∣ ∣ || 是连接操作

注意力系数将会作为新的边的特征输入到下一层

E l = α l (12) \tag{12} E^{l}=\alpha^{l} El=αl(12)
可以看出,EGNN在网络层之间不断通过注意力系数来调整边的特征。

3.5 EGNN(C): Convolution based EGNN layer

GAT使用注意力系数聚合邻居特征而GCN使用邻接矩阵聚合GCN。因此,用对应的边的特征矩阵 E . . p E_{..p} E..p替换 α . . p l \alpha_{..p}^{l} α..pl就得到了EGNN(C):

X l = σ [ ∥ p = 1 P ( E ⋯ p X l − 1 W l ) ] (13) \tag{13} X^{l}=\sigma\left[\|_{p=1}^{P}\left(E_{\cdots p} X^{l-1} W^{l}\right)\right] Xl=σ[p=1P(EpXl1Wl)](13)

3.6 Edge features for directed graph

现实生活中的很多图数据的边都是有方向的,例如,在引文网络中,一些机器学习的论文通常会引用数学类的论文,但是数学类的很少引用机器学习类的。在之前的GAT,GCN中的研究都是把引文网络数据当作是无向图,把边的特征丢掉通常会失去一些重要的信息。

实验中把边的方向看作是一种边的特征,并把有向边的通道 E i j p E_{ijp} Eijp编码成

[ E i j p E j i p E i j p + E j i p ] \left[\begin{array}{ccc}{E_{i j p}} & {E_{j i p}} & {E_{i j p}+E_{j i p}}\end{array}\right] [EijpEjipEijp+Ejip]

  • 三个通道分别代表三种类型的邻居:forward, backward and undirected
  • EGNN将会从不同的通道获得这三种类型的邻居聚合的信息

4 实验结果

  • 使用Tensorflow实现
  • Cora等数据集的节点特征很稀疏,使用Sparse Tensor减少内存要求和计算复杂度
  • GPU:12 Gigabyte graphics memory的Nvidia Tesla K40
4.1 引文网络数据集
  • Cora和Citeseer数据集的特征是稀疏的,用二进制标识表示,1表示对应的词出现在引文中,0表示对应的词没有出现在引文中
  • Pubmed数据集使用TF-IDF作为节点特征
  • 三种引文在GCN等网络中已经忽略了边的信息,文中使用的是原始数据集(来源于Collective Classification in Network Data和Query-driven Active Surveying for Collective Classification)

每个数据集划分成三个子集用于训练,验证和测试,比例分别为

  • sparse:5%, 15% and 80%
  • dense:60%, 20% and 20%

实验设置如下

  • 学习率:0.005
  • 所有隐藏层的线性映射 W W W的输出维数固定为64
  • drop out rate:0.6
  • 使用权值衰减为0.0005的 L 2 L_2 L2正则化
  • 隐藏层的非线性激活函数:exponential linear unit (ELU)

用于数据分布不平衡,为了测试数据不平衡的影响,使用有权重和无权重两种损失函数。节点属于第 k k k类的权重计算方式如下:
∑ k = 1 K n k K n k (14) \tag{14} \frac{\sum_{k=1}^{K} n_{k}}{K n_{k}} Knkk=1Knk(14)

  • 其中, K K K表示类别的数量
  • n k n_k nk表示节点属于第 k k k类的数量
  • 少数类中的节点被赋予了比多数类更大的权重,因此损失也更大。
  • D:Doubly stochastic normalization
  • M:multi-dimensional edge features
  • A:edge adaptiveness
  • W:weighted loss component
  • 多维边特征和双随机归一化比边自适应能力有更大的提高
  • 没有权重的训练在Cora数据集上有更高的准确率
  • 带权的训练不总是能提升性能,特别是在不太平衡的数据集上,例如Pubmed
  • 更多的训练数据为算法提供了更多的信息来调整参数,因此dense划分比sparse划分准确率更高
  • Citeseer的节点度最小,在sparse划分中边的数量很少用到,因此Citeseer数据集在Sparse划分时准确率提高不多
4.2 化学分子数据集
  • 一个分子可以表示成一张图,其中一个原子就是一个节点,化学键是边
  • 在引文网络上是做节点分类,但是在分子数据集上是做整图分类,预测或回归等任务,例如,给定一个分子的图表示,分类问题目标是预测是否是有毒的,回归问题目标是预测溶解度
  • 化学分子数据集的图中的边上通常包含了多维的边的的特征
  • Tox21含有7831种化合物,每个化合物包含12种标签
  • Lipophilicity包含4200种化合物,目标是预测溶解度,是一个回归任务
  • 对于三种数据集,节点通过25维的特征向量来描述,边特征的维度Tox21, Lipo和Freesolv分别是42, 21,25

实验设置如下

  • 学习率:0.0005
  • 所有隐藏层的线性映射 g g g的输出维数固定为16
  • 除了bias参数,其余的使用权值衰减为0.0001的 L 2 L_2 L2正则化
  • 隐藏层的非线性激活函数:exponential linear unit (ELU)
  • 5
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 7
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值