最新综述:等变图神经网络

56f8e41afb8224dfacc4e0c6aad72f28.gif

©作者 | 王春辰

单位 | 北京邮电大学博士生

来源 | 北邮GAMMA Lab

4e7c30e03d8ae40e4dfa131124870632.png

本文旨在介绍近年等变图神经网络的进展,参考于最新的等变图神经网络综述。

许多科学问题都需要处理几何图形的数据。不像一般的图数据,空间几何图形呈现平移,旋转和翻转的不变形。研究人员利用了这种特性设计了几何等变图神经网络(GNNs),以更好地表征几何图形的运算和拓扑。基于必要但简明的数学基础,本文分析并将现有的方法分为三类。

cfbf1111c2feb27221528a0745df3288.png

等变

设 和 分别是输入向量空间和输出向量空间,它们都被赋予了一组变换 和 。如果当我们对输入应用任何变换时,输出也通过相同的变换或在某种可预测的行为下发生改变,那么函数 就称为等变。在形式上,

如果函数对于 G 中的任何变换可交换,那么函数 就是 G- 等变的,,,其中 和 是输入和输出空间。

群 G 是一组具有二进制运算  的变换,并且满足以下属性:在关联组合下是封闭的,存在一个单位元,每个 G 中的元必须有一个逆。

根据群体的定义,我们在这里提供了一些例子:

  • 是一个由旋转和翻转组成的 n 维正交群。

  • 是一个特殊的正交群,它只由旋转组成。

  • 是一个 n 维的欧几里得群,它由旋转、翻转和平移组成。

  • 是一个特殊的欧几里得群,由旋转和平移组成。

群表示:一个群的表示是一个可逆的线性映射 ,其中以群元素 作为输入,并作用于一个向量空间 上,同时他是线性的:。

85aaed39121a79aa28f847f0f704fd37.png

几何等变图神经网络

2.1 几何图(空间图)

在许多使用图建模的场景中,我们处理的数据内容不仅包含拓扑连接和节点特征,也有某些几何信息。以一个药物分子为例,每个原子被分配一个标量特征 (e.g.、电 荷、质量等),以及一个几何向量 (e.g.、位置或速 度坐标)。


当通过 GNN 处理这类数据时,我们可以将等变的归纳偏差加入到图模型中。例如,当预测一个分子的能量时,我们需要输出是对几何向量的任何旋转不变的;然而,当预测分子动力学时,我们要求输出与每个原子位置的输入是等变的。为了更好地区分,本文中使用普通符号表示一般特征,用加粗符号表示几何特征。

等变图神经网络的邻域聚合和消息传递可以归纳为:

22e7247e12e5cf0ca9b41067eea6441a.png

其中, 和 分别表示沿边 进行消息传递的标量输出和矢量输出, 和 分别是标量特征和几何向量的消息聚合函数。下图详细说明了上述等变消息传递协议。

5253eb5856da4e303a3370cc5f56dd54.png

下面我们将简单介绍一下三类等变图神经网络

2.2 不可约表示

根据表示理论 [Esteves,2020],紧群的线性表示可以通过不可约表示(或简称 irreps)的直接和表示,直至相似性变换。特别是对于群  ,irrep 是 的 Wigner-D 矩阵 ,其中正整数 。对于每个 表示,有

92e0da89ea75a8c373e42810c3fe19d9.png

其中 是 Wigner-D 矩阵, 是考虑基变化的正交矩阵, 是沿对角线的矩阵的直接和或串联。通过这种方式,向量空间被划分为 l 个子空间,每个子空间由   转换,并且位于第 l 个子空间中的向量被称为 l 型向量。例如,在上述几何等变图神经网络的框架中,标量 是具有 H 通道的 0 型向量,而 是 1 型向量。这些向量通过张量积 相互作用,Wigner-D 矩阵的张量积通过 CG 分解产生 Clebsch-Gordan(CG)系数 :

4b5c8f118c50806a0a583dddf3fa317f.png

构建等变消息传递层的最后一个方法是球谐波 ,它用作 的等变基。通过上述构建,[Thomas et al., 2018] 提出了满足 等方差的 TFN 层,

5c82e7fea3057b6f188fea0ec477d438.png

其中 表示节点 的几何向量的度为 , 是节点坐标(固定在所有层上), 是半径为 的可学习函数,过滤器 是球谐波和 CG 系数的线性组合,是自相互作用权重。


2.3 正则表示

另一个思路直接寻求使用正则表示从群卷积中获得等方差的解决方案 [Cohen and Welling,2016a],它将卷积过滤器定义为群的函数。然而,在处理连续和平滑群时,群卷积中的积分变得棘手,在这种情况下可以利用的一个可行工具是李代数。为此,[Finzi et al., 2020] 提出了 LieConv 通过提升(将 中的输入映射到群元素 )和卷积积分的离散化来计算群卷积 通过 PointConv 技巧。特别是,通过一致的符号,LieConv 的表述如下。

934e68fae896a2dfa9bd0db51f37de0b.png

其中 是 的提升,对数将每个群成员映射到作为向量空间的李代数 g 上,而 是参数 MLP。很明显,LieConv 只指定节点特征 的更新,同时保持几何向量 不变。这意味着 LieConv 是不变的。

2.4 标量化

除了群表示理论之外,许多工作还采用了通过标量化对等方差进行建模的通用方法。通常,几何向量首先转换为不变标量,然后通过几个 MLP 来控制幅度,最后在原始方向上相加以获得等方差。这个想法最初在 SchNet [Schutt et al., 2018]和 DimeNet [Klicpera et al, 2020]中有所暗示。Radial Field [Kohler et al.,2020] 实现了等变版本,但它只对几何向量进行操作,而不考虑节点特征。EGNN [Satorras et al.,2021b] 通过灵活的范式进一步完善了这个想法。

b13b5218da47a919cfc8c1c54f4520da.png

其中 是几何向量 和 的标量化; 和 是任意 MLP。通过设置 ,EGNN 通过以等变但直接的方式联合传播节点特征 和几何向量 。


b9c666d3c53512fc354bcbb1cdc0635f.png

应用

等变 GNN 在各种类型的现实世界几何数据中具有广泛的应用,从物理系统到化学物质。数据集资源概览如下图所示。

9f14aecaa30e6e28e3abe004b90978bb.png

outside_default.png

参考文献

outside_default.png

[Esteves, 2020] Carlos Esteves. Theoretical aspects of group equivariant neural networks, 2020.

[Thomas et al., 2018] Nathaniel Thomas, Tess Smidt, Steven Kearnes, Lusann Yang, Li Li, Kai Kohlhoff, and Patrick Riley. Tensor field networks: Rotation-and translation equivariant neural networks for 3d point clouds. arXiv preprint arXiv:1802.08219, 2018.

[Cohen and Welling, 2016a] Taco S. Cohen and Max Welling. Group equivariant convolutional networks. In ICML, 2016.

[Finzi et al., 2020] Marc Finzi, Samuel Stanton, Pavel Iz mailov, and Andrew Gordon Wilson Generalizing con volutional neural networks for equivariance to lie groups on arbitrary continuous data. In ICML, 2020.

[Sch¨utt et al., 2018] Kristof T Sch¨utt, Huziel E Sauceda, PJ Kindermans, Alexandre Tkatchenko, and K-R M¨uller.Schnet–a deep learning architecture for molecules and materials. The Journal of Chemical Physics, 148(24):241722, 2018.

[Klicpera et al., 2020] Johannes Klicpera, Janek Groß, andStephan G¨unnemann. Directional message passing for molecular graphs. In ICLR, 2020.

[K¨ohler et al., 2020] Jonas K¨ohler, Leon Klein, and Frank Noe. Equivariant flows: Exact likelihood generative learning for symmetric densities. In ICML, 2020.

[Satorras et al., 2021b] Victor Garcia Satorras, Emiel Hoogeboom, and Max Welling. E(n) equivariant graph neural networks. arXiv preprint arXiv:2102.09844, 2021.

更多阅读

8d08d2704ff8ceda6500812add50410f.png

62c7896bef08d58a6388bd42f8e920a3.png

0715338916bb251805c23390023e1f97.png

9c0b0d0477f283fa1500b1ec362c2632.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

5b9177eb84e7c773758a954c89c2defb.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

79735ea3aa23a8024aa0ae3d8b2a27d6.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值