Graph-Bert:没有我Attention解决不了的

作者 | kaiyuan

整理 | NewBeeNLP

最近要做一个图相关的项目,之前没怎么接触过图网络,就从头开始学习了一下,后面有时间也会整理分享。这里顺便推荐一下清华大学唐杰老师的一个分享:「图表示学习和图神经网络的最新理论进展」,主要介绍了图神经网络及其在认知推理方向的一些进展。

ok,今天这篇文章主要是记录下Graph-Bert的阅读笔记,跟我们现在要做的比较像,是关于「图网络的预训练」。这一块还有很多非常棒的资料,后续再慢慢整理分享吧。

  • 论文:https://arxiv.org/abs/2001.05140

  • 代码:https://github.com/jwzhanggy/Graph-Bert

enjoy~

TL;DR

在这篇文章中,作者指出了目前主流GNN完全依赖图链接,存在一些严重影响性能的问题

  • 模型假死(suspended animation):随着训练层数加深,模型不再对输入数据响应;

  • 过度平滑(over-smoothing):随着训练层数加深,所有结点的embedding会越来越相似;

  • 并行化处理(paralelization):在大图上无法并行化处理

针对以上问题,提出了Graph-BERT,同样是非常火的『pretrain+fintune』范式应用于图网络中。中心思想还是attention,首先将原始大图采样为一个个的子图,然后利用attention去学习结点表征。下面来看看具体模型

Model

如上图,Graph-Bert模型主要可以分为四部分:

  • 从原始大图中采样无连接子图(linkless graph)

  • 输入结点embedding处理

  • 基于图的transformer-encoder

  • 基于图的transformer-decoder

子图采样

为了更好地处理大图(并行化),graph-bert选择在采样子图上进行训练。使用了一种基于图亲密度矩阵 的采样方案:「top-k intimacy」,其中 表示节点 和 结点 之间的亲密度,计算公式为:

其中, 是一个[0, 1]之间的超参数(通常取0.15), 表示列规范化邻接矩阵, 为图的邻接矩阵, 为对应的对角矩阵

那么对于一个给定的目标结点,就可以利用上面定义的亲密度来找出其上下文结点,计算公式为:

其实这一步就是把图结构的数据转变成了我们平时常见的NLP序列化输入,把每个结点看成是一个个字或词,然后后面就可以直接套transformer了。记得之前有篇文章说的也是类似的:Transformers are Graph Neural Networks[1]

结点embedding

由于经过采样出来的结点们是无序的,这里按照「与target node的亲密度打分」来对结点集合进行排序。结点emdedding由四部分组成

「1. 原始特征embedding」

就是使用一个映射操作将原始特征表示到新的共享的特征空间,对于不同的输入可以有不同的映射函数,如CNN/LSTM/BERT等

「2. Weisfeiler-Lehman 绝对角色embedding」

Weisfeiler-Lehman算法是用来确定两个图是否是同构的,其基本思路是通过迭代式地聚合邻居节点的信息来判断当前中心节点的独立性(Identity),从而更新整张图的编码表示。

有关更多WL算法的细节可以参考这个slides:Graph Kernel[2]

「3. 基于亲密度的相对位置embedding」

上一节计算的嵌入可以表示全局的信息,而这一步主要是获取局部信息。

「4. 基于相对距离embedding」

对两个结点在原始大图中的距离(间隔边的数量)进行embedding表示,主要是为了平衡上述两步的embedding

Transfomer编码器

「输入」

首先是对前面得到的四个embeeding进行聚合,

聚合的函数有很多可以选择,文章里作者就使用了最简单的加和操作。聚合之后就可以得到所有结点的输入表示:

「更新」

然后就是进行N层的transformer encoder的迭代更新,

「输出」

经过D层的编码之后,我们就可以得到对应每个结点的表示, ,之后就可以根据具体的下游任务来使用这些向量表示。

预训练

图神经网络的预训练大致分为两部分:对结点的预训练以及对链接关系的预训练。

结点预训练

对于目标结点 ,原始特征为 ,我们通过GRAPH-BERT编码层可以得到其隐藏表示 , 然后经过一层FC映射后 重建原始特征。

链接关系预训练

这一部分其实是考虑了图的结构信息,利用两个节点表示的cos距离与之前提前算好的亲密度打分,来做损失。

其中,

微调

在文章中介绍了两个微调任务:「节点分类」「图聚类」,效果看着都不错的样子。最后作者还加上了ablation study,分析了一些模型设置的效果,比如采样子图的结点数 ,初始embedding,是否进行预训练等等。

说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

推荐两个专辑给大家:

专辑 | 李宏毅人类语言处理2020笔记

专辑 | NLP论文解读

专辑 | 情感分析


整理不易,还望给个在看!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值