二、图特征工程

目录

 传统图特征工程

1、图特征

2、节点特征工程

2.1 节点连接数

2.2 节点重要度

2.3 graphlet-节点的子图信息

3、连接层面特征工程

3.1 目的

3.2 连接预测的一般方法为

3.3 连接特征

4、全图特征工程

5、Weisfeiler-Lehman Kernel算法

5.1 目标

5.2 两个图是同构图 Graph Isomorphism的性质

5.3 思想

5.4 更新流程

5.5 WL子树

5.6 公式表示

二、参考及学习资料


 一、传统图特征工程

1、图特征

图点本身就具备的特征称为属性特征(如:连接权重、节点类型等),属性特征大部分时候都是多模态的。

图中一个节点和其他节点之间的连接关系称为连接特征(结构信息)

人工提取并构造的特征称为特征工程。(将图变为向量)特征工程一般针对图的连接特征进行构造

2、节点特征工程

节点层面连接特征分为:

①节点的连接数

②节点的重要度

③节点的聚集系数(某节点与其相邻节点之间是否有联系)

④节点的子图信息(某节点周围有多少人工定义的子图)

2.1 节点连接数

求节点连接数,直接按某行/某列求和即可;或将邻接矩阵与一个值为1的向量相乘即可。但节点连接数不考虑连接的质量。若考虑节点重要度,则可通过以下几种指标衡量

2.2 节点重要度

1)度中心性(Degree Centrality)

无向图:邻居节点数量

有向图:分为入度与出度

其中deg(v)表示节点v的度数,n表示图中节点的总数

2)接近中心性(Clossness Centrality)

衡量节点的影响范围和在信息传播中的作用,指节点到其他节点的平均距离的倒数

3)介数中心性(Betweenness centrality)

指节点在所有最短路径中出现的次数。该指标可以衡量节点在信息传播和资源流动中的作用。

4)特征向量重要度(Eigenvector Centrality)

指节点的重要性与其相邻节点的重要性有关。如果一个节点与其他重要节点相连,那么它的重要性也会提高。

5)集群系数(Clustering Coefficient)

计算方法为:该节点的周围节点之间相连数 / 该节点与周围节点相连数,值域为[0,1]。详见下图示例:

分母为相邻节点两两个数

分子为v节点邻居节点两两连接数,可通过数三角形得到,这种三角形连接被称为:自我中心网络(ego-network)

2.3 graphlet-节点的子图信息

相同样的节点数构成非同形子图(类似同分异构体),例如4个节点可以构成6种graphlet

 提取某节点周围的graphlet个数即可构成一个称为Graphlet Degree Vector(GDV)

3、连接层面特征工程

3.1 目的

通过已知连接补齐未知连接。可以通过两种方法来获取D维向量:

①直接提取连接的特征

②将连接两端节点的D维向量拼在一起(但这种方法会丢失link本身的连接信息)

3.2 连接预测的一般方法为

①获取连接的D维向量

②将D维向量送入机器学习中进行计算,获得分数

③将分数 c(x,y) 进行排序,选出最高的n个新连接

④计算这n个预测结果与真实值

3.3 连接特征

 连接特征一般分为:①节点间的距离;②节点局部连接信息;③节点在全图的连接信息

3.3.1 最短路径长度

两个点之间经过节点最少的路径上的节点数,但是其与节点连接数一样只看数量不看权重。

3.3.2 基于两节点的局部连接信息

1)common neighbors

2)杰卡德相似性

共同相邻节点个数;交并比等。但若两个节点不存在局部连接,则其交并比和共同相邻节点个数均会为0。例如下图中A和E就不存局部连接。

3)Adamic-Adar(adac)

Adamic Adac算法常用于社交链路中关系的预测,如好友推荐,美食推荐等等

其中N(u)是与相邻的节点集u。

值A(x,y)=0表示两个节点不接近,而较高的值表示节点较近

该库包含一个计算两个节点之间接近都的函数

3.3.3 节点在全图的连接信息

1)卡兹系数(Katz index)

1.1 )基础

表示节点u和节点v之间的长度为k的路径个数。计算方法如下:

  • 用邻接矩阵的幂运算
  • 离散数学中提到,邻接矩阵的n次幂表示的就是路径长度为n的路径(假设每条路径长度均为1)

1.2)推导

当距离为1时,Katz index 值为 邻接矩阵

当距离为2时,Katz index 值为 邻接矩阵的平方

根据数学归纳法证明,当距离为 L 时,Katz index值为 邻接矩阵的 L 次幂

1.3)加 discount factor

当路径长度 正无穷 时,没有太大意义,对卡茨系数进行衰减

公式如下:

4、全图特征工程

目的是提取整张图的特征,将其变为D维向量,反映全图结构特点。

实际就是在计算不同特征在图中存在的个数

4.1 (将图视为文章,节点视为单词 Bag-of-Words (BoW) )

但这种方法有一个缺陷,就是只看是否存在第 i 个节点而不关心连接结构,如下图中两个图编码的D维向量一致,均为[1 1 1 1]

4.2 使用Bag-of-Node-degrees,但是同样的只看node dgree,不看节点也不看连接结构

4.3 Bag-of-xxx可以推广到之前提到的任意特征中,比如将全图的graphlets作为应用场景,其相较于节点层面的graphlets有如下区别:①可以存在孤立节点;②计数对象为全图,而不是特定节点邻域。

将两张图的graphlet进行数量积则可得到Graphlet Kernel(一个标量),该指标可以反映两张图是否相近/匹配,公式记作:

若两张图尺寸不一致则需要对其进行归一化

但是这种做法对算力的消耗极大。故一般采用Weisfeiler-Lehman Kernel算法,采用的是颜色微调的思想(Color refinement),其具体做法如下:

5、Weisfeiler-Lehman Kernel算法

原论文:The Weisfeiler-Lehman Test of Isomorphism

参考文章:The Weisfeiler-Lehman Isomorphism Test | David Bieber

5.1 目标

WL-test是目前解决图同构问题最有效的算法

5.2 两个图是同构图 Graph Isomorphism的性质

  1. 两图的边和顶点数量相同,且边的连接性相同
  2. 也可以认为一图的点是由另一图的点映射得到
  3. 计算图同构可以度量图的相似度(比如实际应用中具有相似结构的分子可能具备相似的功能特性)

5.3 思想

通过对相邻节点的节点标签排序后的集合来扩展节点标签,并将这些扩展后的标签压缩为新的短标签

5.4 更新流程

  1. 将图初始化
  2. 根据邻居节点的连接数量,对其进行编码调整
  3. 将不同的编码以不同的颜色代替(Hash)
  4. 重复以上步骤,最后两个相同结构的节点颜色始终相同
  5. 这样就将每张图变成了一个维度较低的向量。将这两张图的向量求内积即可得到Weisfeiler-Lehman kernel

示例:

5.5 WL子树

  • 在WL Test的第k次迭代中,一个节点的标签代表了:以该节点为根的高度为k的子树结构
  • 当两个节点的h层的标签一样时,表示:分别以这两个节点为根节点的WL子树是一致的
  • 举例:右图是节点1迭代两次的子树

5.6 公式表示

  • WL-test分为四步:聚合邻接节点标签、多重集排序、标签压缩、更新标签

二、参考及学习资料

书籍:深入浅出图神经网络(链接:https://pan.baidu.com/s/1GYm8FxUh0GbJDftr9RecCg 
提取码:46ez )

斯坦福课程:https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn

课件:CS224W | Home (stanford.edu)

YouTube视频:CS224W: Machine Learning with Graphs

博客:A Gentle Introduction to Graph Neural Networks

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值