使用图神经网络预测影响概率
我们提出的GCN被优化以预测影响概率:(1)在图卷积过程中考虑顶点和边缘特征,(2)我们的图卷积过程是考虑信息级联过程的,(3)子图的训练是增加可伸缩性的必要条件,而某些影响概率预测需要完整的邻域信息-存在训练速度和GPU内存需求与预测精度之间的权衡问题。 然而,我们的方法在理论上保证了了随机抽样子图的适当训练
1、背景知识
1.1 图卷积神经网络GCN(Graph Convolutional Networks)
图卷积神经网络(Graph Convolutional Network)是一种能对图数据进行深度学习的方法。
GCN方法包含了很多已提出的方法,每个GCN方法可以用下面的方程来描述,并对每个聚合函数agr和组合函数cmb进行了具体的选择:
其中,
i
i
i代表了卷积层的层数,
N
e
i
(
v
)
Nei(v)
Nei(v)则是节点
v
v
v的邻居集合,包含节点本身。k层卷积过后,使用
h
v
k
h^k_v
hvk表示对节点的预测值。一些选定的主要GCN方法的聚合和组合函数如下:1)LGCN,使用l-Max_pooling (从邻居节点的每个特征维度选择
l
l
l个最大的值)来聚合节点的特征。该方法用于简单的联级和卷积层。2)GraphSAGE则引入了三个聚合器:Mean Pooling, LSTM, and Max Pooling。在组合函数方面,GraphSAGE有着更多的选择且比LGCN简单。3) Graph Attention Network (GAT)在聚合时加入邻居,它使用线性层进行聚合和组合。
1.2 Influence Maximization(影响力最大化)
这被证明是一个NP-Hard问题(NP hard:NP难问题,所有NP问题在多项式时间内都能约化(Reducibility)到它的问题(不一定是NP问题))。对于影响力最大化这个NP-Hard问题,解决它的方法有两个模型:
1)Independent cascade (IC)模型
在IC模型中,用户v被其邻居u激活(影响)概率为p(u,v);
2) linear threshold (LT)模型
在LT模型中,如果有足够多的邻居(大于阈值)处于活动状态,则激活用户v。
1.3、Influence Probability(影响概率)
2、提出的方法
2.1 激活函数
经过k个卷积层后,激活函数 activation(
h
e
k
h_e^k
hek)对每个节点进行最终的影响概率预测。本文中用到的激活函数为MR,因为它适合于预测LT模型的定义:
MR激活函数如下:
2.1 图神经网络
我们提出的图卷积网络在两个方面不同于其他方法:1)我们考虑点和边的特征,而现有的方法只考虑点的特征,2)我们按照信息级联过程更新隐藏向量,而现有的方法考虑所有可用的信息。
2.1.1 Initial Embedding
本文中,一个节点对应一个特征向量
f
v
f_v
fv,构成如下:
1)对于每个节点:网络特征(局部聚类信息,出入度,PageRank值,邻居数目)和内容特征。
2)对每一个有向的边
e
=
(
u
,
v
)
e=(u,v)
e=(u,v):历史转发次数,历史影响概率及Adamic-Adar 系数。
解决节点和连边特征之间的不兼容:
注意,在这个步骤之后,所有隐藏向量都是兼容的,并且驻留在同一个向量空间中。 经过一些初步实验,我们将特征向量的维数用为8维。
2.1.2 根据信息级联过程更新隐藏向量
2.1.3 聚合和组合函数
本文中GCN由l-Max_Poling( l = 3 l=3 l=3)和一维列式卷积组成。
2.1.4 训练方法
该论文使用了包含了
m
+
1
m+1
m+1个顶点的简单子图作为训练集。损失函数如下:
其中S是G的子图,
p
(
u
,
v
)
p(u,v)
p(u,v)是预测得到的影响概率,
p
′
(
u
,
v
)
p^{'}(u,v)
p′(u,v)是真实的影响概率。我们首先随机选择一个中心顶点,并从中心执行bread-first·搜索,以选择随机的m邻居。
2.1.4 数据处理
在该论文中,使用了前四个窗口训练,最后一个窗口测试。