论文笔记:Neural Message Passing for Quantum Chemistry

前言

论文链接:https://arxiv.org/abs/1704.01212
github:https://github.com/ifding/graph-neural-networks
参考:https://blog.csdn.net/qq_27075943/article/details/106623059

MPNN 不是一个模型,而是一个框架。作者在这篇论文中主要将现有模型抽象其共性并提出成 MPNN 框架,同时利用 MPNN 框架在分子分类预测中取得了一个不错的成绩。

在这篇论文中,作者的目标是证明:能够应用于化学预测任务的模型可以直接从分子图中学习到分子的特征,并且不受到图同构的影响。为此,作者将应用于图上的监督学习框架称之为消息传递神经网络(MPNN),这种框架是从目前比较流行的支持图数据的神经网络模型中抽象出来的一些共性,抽象出来的目的在于理解它们之间的关系。

本文给出的一个例子是利用 MPNN 框架代替计算代价昂贵的 DFT 来预测有机分子的量子特性:
在这里插入图片描述

1. MPNN框架

首先定义变量名称及含义:
定义无向图 G G G,节点 v v v的特征向量为 x v x_v xv,边的特征为 e v w e_{vw} evw连接节点 v v v w w w
前向传递的两个阶段分别为:消息传递阶段(Message Passing)读出阶段(Readout)

对于消息传递阶段(Message Passing):消息函数定义为 M t M_t Mt,定点更新函数定义为 U t U_t Ut t t t为运行的时间步,更新过程如下:
m v t + 1 = ∑ w ∈ N ( v ) M t ( h v t , h w t , e v w ) m_v^{t+1}=\sum_{w \in N(v)}M_t(h_v^t,h_w^t,e_{vw}) mvt+1=wN(v)Mt(hvt,hwt,evw) h v t + 1 = U t ( h v t , m v t + 1 ) h_v^{t+1}=U_t(h_v^t,m_v^{t+1}) hvt+1=Ut(hvt,mvt+1)其中, N ( v ) N(v) N(v) 表示图 G G G 中节点 v v v 的邻居。

对于 读出阶段(Readout) 使用一个读出函数 R R R 来计算整张图的特征向量:
y ^ = R ( h v T ∣ v ∈ G ) \hat{y}=R(h_v^T|v \in G) y^=R(hvTvG)

消息函数 M t M_t Mt,向量更新函数 U t U_t Ut 和读出函数 R R R都是可微函数。 R R R作用于节点的状态集合,同时对节点的排列不敏感,这样才能保证 MPNN 对图同构保持不变。

此外,我们也可以通过引入边的隐藏层状态来学习图中的每一条边的特征,并且同样可以用上面的等式进行学习和更新。

接下来我们看下如何通过定义消息函数、更新函数和读出函数来适配不同种模型。

Paper1 : Convolutional Networks for Learning Molecular Fingerprints, Duvenaud et al. (2015)

这篇论文中消息函数为:
M ( h v , h w , e v w ) = ( h w , e v w ) M(h_v,h_w,e_{vw})=(h_w,e_{vw}) M(hv,hw,evw)=(hw,evw)其中 ( . , . ) (.,.) (.,.) 表示拼接(concat);

节点的更新函数为:
U t ( h v t , m v t + 1 ) = σ ( H t d e g ( v ) m v t + 1 ) U_t(h_v^t,m_v^{t+1}) = \sigma(H_t^{deg(v)}m_v^{t+1}) Ut(hvt,mvt+1)=σ(Htdeg(v)mvt+1)

其中 σ \sigma σ 为 sigmoid 函数, d e g ( v ) deg(v) deg(v) 表示节点 v v v 的度, H t v H_t^v Htv是一个可学习的矩阵, t t t 为时间步, N N N 为节点度;

读出函数 R R R 将先前所有隐藏层的状态 h v t h_v^t hvt进行连接:
R = f ( ∑ v , t s o f t m a x ( W t h v t ) ) R = f(\sum_{v,t}softmax(W_th_v^t)) R=f(v,tsoftmax(Wthvt))

其中 f f f 是一个神经网络, W t W_t Wt是一个可学习的读出矩阵。

这种消息传递阶段可能会存在一些问题,比如说最终的消息向量分别对连通的节点和连通的边求和 m v t + 1 = ( ∑ h w t , ∑ e v w ) m_v^{t+1}=(\sum h_w^t,\sum e_{vw}) mvt+1=(hwt,evw)由此可见,该模型实现的消息传递无法识别节点和边之间的相关性。

Paper 2 : Gated Graph Neural Networks (GG-NN), Li et al. (2016)

这篇论文比较有名,作者后续也是在这个模型的基础上进行改进的。

GG-NN 使用的消息函数为:
M t ( h v t , h w t , e v w ) = A e v w h w t M_t(h_v^t,h_w^t,e_{vw}) = A_{e_{vw}}h_w^t Mt(hvt,hwt,evw)=Aevwhwt
其中 A e v w A_{e_{vw}} Aevw e v w e_{vw} evw的一个可学习矩阵,每条边都会对应那么一个矩阵;

更新函数为:
U t ( h v t , m v t + 1 ) = G R U ( h v t , m v t + 1 ) U_t(h_v^t,m_v^{t+1})=GRU(h_v^t,m_v^{t+1}) Ut(hvt,mvt+1)=GRU(hvt,mvt+1)

其中 G R U GRU GRU为门控制单元(Gate Recurrent Unit)。该工作使用了权值捆绑,所以在每一个时间步 t t t 下都会使用相同的更新函数;

读出函数 R 为:
R = ∑ v ∈ V σ ( i ( h v ( T ) ) , h v 0 ) ⊙ ( j ( h v ( T ) ) ) R = \sum_{v \in V} \sigma(i(h_v^{(T)}),h_v^0) \odot (j(h_v^{(T)})) R=vVσ(i(hv(T)),hv0)(j(hv(T)))

其中 i i i j j j为神经网络, ⊙ \odot 表示元素相乘。

Paper 3 : Interaction Networks, Battaglia et al. (2016)

这篇论文考虑图中的节点和图结构,同时也考虑每个时间步下的节点级的影响。这种情况下更新函数的输入会多一些 ( h v , x v , m v ) (h_v,x_v,m_v) (hv,xv,mv)其中 x v x_v xv 是一个外部向量,表示对顶点 v v v 的一些外部影响。

这篇论文的消息函数 M ( h v , h w , e v w ) M(h_v,h_w,e_{vw}) M(hv,hw,evw) 是一个以 ( h v , h w , e v w ) (h_v,h_w,e_{vw}) (hv,hw,evw)为输入的神经网络,节点更新函数 U ( h v , x v , m v ) U(h_v,x_v,m_v) U(hv,xv,mv)是一个以 ( h v , x v , m v ) (h_v,x_v,m_v) (hv,xv,mv)为输入的神经网络,最终会有一个图级别的输出 R = f ( ∑ v ∈ G h v T ) R=f(\sum_{v\in G}h_v^T) R=f(vGhvT),其中 f f f 是一个神经网络,输入是最终的隐藏层状态的和。在原论文中 T = 1 T=1 T=1

Paper 4 : Molecular Graph Convolutions, Kearnes et al. (2016)

这篇论文与其他 MPNN 稍微有些不同,主要区别在于考虑了边表示 e v , w t e_{v,w}^t ev,wt,并且在消息传递阶段会进行更新。

消息传递函数用的是节点的消息:
M t ( h v t , h w t , e v w t ) = e v w t M_t(h_v^t,h_w^t,e_{vw}^t)=e_{vw}^t Mt(hvt,hwt,evwt)=evwt

节点的更新函数为:
U t ( h v t , m v t + 1 ) = α ( W 1 ( α ( W 0 h v t ) , m v t + 1 ) ) U_t(h_v^t,m_v^{t+1})=\alpha(W_1(\alpha(W_0h_v^t),m_v^{t+1})) Ut(hvt,mvt+1)=α(W1(α(W0hvt),mvt+1))

其中 ( . , . ) (.,.) (.,.)表示拼接(concat), α \alpha α为 ReLU 激活函数, W 0 , W 1 W_0,W_1 W0,W1 为可学习权重矩阵;

边状态的更新定义为:
e v w t + 1 = U t ′ ( e v w t , h v t , h w t ) e_{vw}^{t+1}=U_t^{'}(e_{vw}^t,h_v^t,h_w^t) evwt+1=Ut(evwt,hvt,hwt) e v w t + 1 = α ( W 4 ( α ( W 2 , e v w t ) , α ( W 3 ( h v t , h w t ) ) ) ) e_{vw}^{t+1}=\alpha(W_4(\alpha(W_2,e_{vw}^t),\alpha(W_3(h_v^t,h_w^t)))) evwt+1=α(W4(α(W2,evwt),α(W3(hvt,hwt))))

其中, W i W_i Wi为可学习权重矩阵。

Paper 5 : Deep Tensor Neural Networks, Schutt et al. (2017)

消息函数为:
M t = t a n h ( W f c ( ( W c f h w t + b 1 ) ⊙ ( W d f e v w + b 2 ) ) ) M_t = tanh(W^{fc}((W^{cf}h_w^t+b1)\odot(W^{df}e_{vw}+b2))) Mt=tanh(Wfc((Wcfhwt+b1)(Wdfevw+b2)))
其中 W f c , W c f , W d f W^{fc},W^{cf},W^{df} Wfc,Wcf,Wdf为矩阵, b 1 , b 2 b_1,b_2 b1,b2 为偏置向量;

更新函数为:
U t ( h v t , m v t + 1 ) = h v t + m v t + 1 U_t(h_v^t,m_v^{t+1})=h_v^{t}+m_v^{t+1} Ut(hvt,mvt+1)=hvt+mvt+1

读出函数通过单层隐藏层接受每个节点并且求和后输出:
R = ∑ v N N ( h v T ) R = \sum_vNN(h_v^T) R=vNN(hvT)

Paper 6 : Laplacian Based Methods, Bruna et al. (2013); Defferrard et al. (2016); Kipf & Welling (2016)

基于拉普拉斯矩阵的方法将图像中的卷积运算扩展到网络图 G G G 的邻接矩阵 A A A 中。

在 Bruna et al. (2013); Defferrard et al. (2016); 的工作中,消息函数为:
M t ( h v t , h w t ) = C v w t h w t M_t(h_v^t,h_w^t)=C_{vw}^th_w^t Mt(hvt,hwt)=Cvwthwt

其中,矩阵 C v w t C_{vw}^t Cvwt为拉普拉斯矩阵 L L L 的特征向量组成的矩阵;

节点的更新函数为:
U t ( h v t , m v t + 1 ) = σ ( m v t + 1 ) U_t(h_v^t,m_v^{t+1})=\sigma(m_v^{t+1}) Ut(hvt,mvt+1)=σ(mvt+1)

其中, σ \sigma σ为非线性的激活函数,比如说 ReLU。

在 Kipf & Welling (2016) 的工作中,消息函数为:
M t ( h v t , h w t ) = C v w t h w t M_t(h_v^t,h_w^t)=C_{vw}^th_w^t Mt(hvt,hwt)=Cvwthwt
其中, C v w = ( d e g ( v ) d e g ( w ) ) − 1 / 2 A v w C_{vw}=(deg(v)deg(w))^{-1/2}A_{vw} Cvw=(deg(v)deg(w))1/2Avw;

节点的更新函数为:
U v t ( h v t , m v t + 1 ) = R e L U ( W t m v t + 1 ) U_v^t(h_v^t,m_v^{t+1})=ReLU(W^tm_v^{t+1}) Uvt(hvt,mvt+1)=ReLU(Wtmvt+1)

可以看到以上模型都是 MPNN 框架的不同实例,所以作者呼吁大家应该致力于将这一框架应用于某个实际应用,并根据不同情况对关键部分进行修改,从而引导模型的改进,这样才能最大限度的发挥模型的能力。

2. MPNN Variants

本节来介绍下作者将 MPNN 框架应用于分子预测领域,提出了 MPNN 的变种,并以 QM9 数据集为例进行了实验。

QM9 数据集中的分子大多数由碳氢氧氮等元素组成,并组成了约 134k 个有机分子,可以划分为四大类(具体类别不介绍了),任务是根据分子结构预测分子所属类别。

作者主要是基于 GG-NN 来探索 MPNN 的多种改进方式(不同的消息函数、输出函数等),之所以用 GG-NN 是因为这是一个很强的 baseline。

2.1 Message Functions

首先来看下消息函数,可以以 GG-NN 中使用的消息函数开始,GG-NN 用的是矩阵乘法:
M ( h v , h w , e v w ) = A e v w h w M(h_v,h_w,e_{vw}) = A_{e_{vw}}h_w M(hv,hw,evw)=Aevwhw

为了兼容边特征,作者提出了新的消息函数:
M ( h v , h w , e v w ) = A ( e v w ) h w M(h_v,h_w,e_{vw}) = A({e_{vw}})h_w M(hv,hw,evw)=A(evw)hw
其中, A ( e v w ) A(e_{vw}) A(evw)是将边的向量 e v w e_{vw} evw映射到 d×d 维矩阵的神经网络。

矩阵乘法有一个特点,从节点 w 到节点 v 的函数仅与隐藏层状态 h w h_w hw和边向量 e v w e_{vw} evw有关,而和隐藏状态 h v t h_v^t hvt无关。理论上来说,如果节点消息同时依赖于源节点 w 和目标节点 v 的话,网络的消息通道将会得到更有效的利用。所以也可以尝试去使用一种消息函数的变种:
m v w = f ( h w t , h v t , e v w ) m_{vw}=f(h_w^t,h_v^t,e_{vw}) mvw=f(hwt,hvt,evw)其中, f f f 为神经网络。

2.2 Virtual Graph Elements

其次看来下消息传递,作者探索了两种不同的消息传递方式。

最简单的修改就是为没有连接的节点添加一个虚拟的边,这样消息便具有了更长的传播距离;

此外,作者也尝试了使用潜在的“主”节点(master node),这个节点可以通过特殊的边来连接到图中任意一个节点。主节点充当了一个全局的暂存空间,每个节点都会在消息传递过程中通过主节点进行读取和写入。同时允许主节点具有自己的节点维度,以及内部更新函数(GRU)的单独权重。其目的同样是为了在传播阶段传播很长的距离。

2.3 Readout Functions

然后来看下读出函数,作者同样尝试了两种读出函数:

首先是 GG-NN 中的读出函数:
R = ∑ v ∈ V σ ( i ( h v ( T ) , h v 0 ) ⊙ ( j ) ( h v ( T ) ) ) R=\sum_{v \in V}\sigma(i(h_v^{(T)},h_v^0) \odot(j)(h_v^{(T)})) R=vVσ(i(hv(T),hv0)(j)(hv(T)))
此外也考虑 set2set 模型。set2set 模型是专门为在集合运算而设计的,并且相比简单累加节点的状态来说具有更强的表达能力。模型首先通过线性映射将数据映射到元组 ( h v t , x v ) (h_v^t, x_v) (hvt,xv),并将投影元组作为输入 T = { ( h v T , x v ) } T=\{(h_v^T,x_v) \} T={(hvT,xv)}然后经过 M M M 步计算后,set2set 模型会生成一个与节点顺序无关的 Graph-level 的 embeedding 向量,从而得到我们的输出向量。

2.4 Multiple Towers

最后考虑下 MPNN 的伸缩性。

对一个稠密图来说,消息传递阶段的每一个时间步的时间复杂度为 O ( n 2 d 2 ) O(n^2d^2) O(n2d2)其中 n n n 为节点数, d d d 为向量维度,可以看到时间复杂度还是非常高的。
为了解决这个问题作者将向量维度 d d d 拆分成 k k k 份,就变成了 k k k d / k d/k d/k 维向量,并在传播过程中每个子向量分别进行传播和更新,最后再进行合并。此时的子向量时间复杂度为 O ( n 2 ( d / k ) 2 ) O(n^2(d/k)^2) O(n2(d/k)2)考虑 k k k 个子向量的时间复杂度为 O ( n 2 d 2 / k ) O(n^2d^2/k) O(n2d2/k)

3.Input Representation

这一节主要介绍 GNN 的输入。

对于分子来说有很多可以提取的特征,比如说原子组成、化学键等,详细的特征列表如下图所示:在这里插入图片描述
对于邻接矩阵,作者模型尝试了三种边表示形式:

**化学图(Chemical Graph):**在不考虑距离的情况下,邻接矩阵的值是离散的键类型:单键,双键,三键或芳香键;

**距离分桶(Distance bins):**基于矩阵乘法的消息函数的前提假设是边信息是离散的,因此作者将键的距离分为 10 个 bin,比如说 [ 2 , 6 ] [2,6] [2,6] 中均匀划分 8 个 bin, [ 0 , 2 ] [0,2] [0,2] 为 1 个 bin, [ 6 , + ∞ ] [6, +∞] [6,+] 为 1 个 bin;

**原始距离特征(Raw distance feature):**也可以同时考虑距离和化学键的特征,这时每条边都有自己的特征向量,此时邻接矩阵的每个实例都是一个 5 维向量,第一维是距离,其余思维是四种不同的化学键。

4. Experiment

来看一下实验结果,以 QM-9 数据集为例,共包含 130462 个分子,以 MAE 为评估指标。

下图为现有算法和作者改进的算法之间的对比:
在这里插入图片描述
下图为不考虑空间信息的结果:
在这里插入图片描述

下图为考虑多塔模型和结果:
在这里插入图片描述

5.Conclusion

总结:作者从诸多模型中抽离出了 MPNN 框架,并且通过实验表明,具有消息函数、更新函数和读出函数的 MPNN 具有良好的归纳能力,可以用于预测分析特性,优于目前的 Baseline,并且无需进行复杂的特征工程。此外,实验结果也揭示了全局主节点和利用 set2set 模型的重要性,多塔模型也使得 MPNN 更具伸缩性,方便应用于大型图中。

  • 13
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值