论文导读 | 高效图生成模型

图片

PKUMOD 石瑶

深度图生成任务旨在利用同分布的图数据集,学习得到其概率分布并能够进行反复采样,得到新图。深度图生成器(Deep graph generator, DGG)主要应用分为真实图生成以及目标驱动的图生成两部分,前者目标为生成与给定图尽可能相似的图,多用于社交网络等场景,后者目标为优化给定目标或约束,主要场景为药物分子生成等。

图片

 

DGG主要面临以下几个挑战:可扩展性,大多数模型的生成规模以百为单位,仅可以满足分子图的需求;节点表示顺序,O(n!)种表示,会影响objective function的计算;图中复杂的依赖关系;模型的可解释性;动态图的生成;有条件的图生成任务。根据使用的方法,现有研究可以分为五类:自回归模型;自编码器模型;基于强化学习的模型;生成对抗模型;流模型。其中,自回归模型可以学习到节点之间更复杂的关系,后四种方法可以针对特定目标/限制进行设计,常用于分子生成。针对社交网络等大规模真实图,自回归模型可能是更好的选择,但与此同时,自回归模型极大地受限于可扩展性问题,难以应用于真实场景。

针对深度自回归模型可扩展性的探索,本文将其分为两部分:Recurrent models;Non-recurrent models,分别进行介绍。

 

1.  Recurrent models

1.1 GraphRNN(ICML 2018)

GraphRNN利用node-level和edge-level的RNN顺序添加点和边到图中:

图片

 

由于edge-level RNN的步数与图大小直接相关,过长的序列会影响RNN的效果以及可扩展性,作者使用BFS node ordering解决该问题,将步数限制在一定范围内。

图片

 

1.2 Graphgen (WWW 2020)

Graphgen将图转换为有序边序列进行训练,生成时直接生成边序列,并转换为图:

 

图片

 

其中转换的方法为《gSpan: Graph-Based Substructure Pattern Mining》中提出的minimum DFS code,可以保证序列表示的唯一性,并利用label信息对转换过程进行剪枝优化。

 

2.  Non-recurrent models

2.1 GRAN (NeuraIPS 2019)

GRAN每步生成一组节点及改组节点对应的边,组越大,效率越高,但也会牺牲效率。

图片

 

为了给出augmented edges(即虚线)对应的概率,作者使用GNN进行带attention的消息传播,可以有效减少对于节点顺序的依赖,最后使用K个不同的伯努利分布来加强边之间相关性的建模:

图片

 

 

2.2 BiGG (ICML 2020)

针对真实图的稀疏性特点,作者同GraphRNN一样使用了edge和node两个level的方法,分别使用二叉树和树状数组进行建模,显著提高了生成效率。

在edge-level,生成一条边的优化思路如下:

图片

 

针对顶点u的所有边,可以进行如下优化,一次性生成:

图片

 

具体生成方法如下,其中使用了Tree LSTM:

图片

图片

 

对于node level,作者使用树状数组以解决序列过长的问题:

图片

 

 

实验结果表明在小规模图上算法的效果更优:

图片

 

 

3.总结

 

 

 

Recurrent方法中,GraphRNN通过BFS node ordering解决了边序列过长的问题,但未解决点序列过长的问题;Graphgen使用DFS code解决了node ordering的问题,但对于大规模图而言代价过高,且同样存在序列过长的问题。此外,此类方法的生成图规模无法控制,只能从训练集中学到,进一步限制了图规模的扩展。Non-recurrent方法中,GRAN使用的GNN会限制其可扩展性,BiGG的两个树结构模型可以较为有效地提升效率,可以在100分钟内生成10万个点的图。该类方法可以指定图的大小,用更复杂的结构去学习图分布。

图片

 

图片相 / 关 / 链 / 接

论文导读 | 图生成模型综述

论文导读 | 深度图生成模型简介

论文导读 | 高效知识图谱精度评估

知识图谱:大规模高效信息交换的关键技术

论文导读 | 在自然语言处理问题中利用因果关系

 

图片

 

图片

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值