论文 | 图理论 | 2020年明尼苏达大学博士论文《学习强大的深度图神经网络和嵌入》

原创 Saurabh Verma 图科学实验室Graph Science Lab 2022-06-25 00:00 发表于台湾
在这里插入图片描述

学习强大的数据嵌入最近已成为机器学习算法的核心,尤其是在自然语言处理和计算机视觉领域。在图领域中,学习图嵌入的应用非常广泛,并且在生物信息学、化学信息学、社交网络和推荐系统等多跨领域中具有独特的用例。迄今为止,图仍然是可以表示多种形式的现实世界数据集的最基本的数据结构。然而,由于其丰富而复杂的数据结构,图在打造强大的图嵌入方面提出了重大挑战。即使是标准的深度学习技术,如循环神经网络 (RNN) 或卷积神经网络 (CNN),也不足以对超出 1D 单词序列或 2D 图像像素网格数据进行操作,因此无法推广到任意图结构。最近,已经提出了图神经网络(GNN)来缓解这些限制,但目前的状态在理论和应用上都远未成熟。

为此,本论文旨在开发强大的图嵌入模型,以解决图上各种现实世界问题。我们研究了设计图嵌入的一些主要方法,即 Graph Kernel 或 Spectrum 和 GNN。我们揭露并解决了它们的一些基本弱点,并贡献了几个新颖的最先进的图嵌入模型。这些模型可以在解决图上的许多实际问题方面取得卓越的性能,例如节点分类、图分类或现有方法的链接预测,并且具有理想的理论保证。我们首先研究 Graph Kernel 或 Spectrum 方法在唯一性、稳定性、稀疏性和计算效率方面产生强大图嵌入的能力。其次,我们提出了图胶囊神经网络,与现有的 GNN 相比,它可以通过捕获更多编码在图结构中的信息来产生强大的图嵌入。第三,我们设计了第一个通用且可迁移的 GNN,从而使图域中的迁移学习成为可能。特别是使用这种特殊的 GNN,图嵌入可以在不同的模型和域之间共享和迁移,从而获得迁移学习的巨大好处。最后,缺乏对 GNN 模型的理论探索,例如它们的泛化特性。我们通过分析 GNN 模型的稳定性并推导它们的泛化保证,迈出了对 GNN 模型更深入的理论理解的第一步。据我们所知,我们是第一个在半监督环境中研究图学习的稳定性界限并为 GNN 模型推导出相关泛化界限的人。

总之,这篇论文贡献了几个最先进的图嵌入和新颖的图论,特别是

(i) 强大的图嵌入,称为图谱距离族 (Fgsd)

(ii) 信息丰富的 GNN,称为图胶囊神经网络 (GCAPS)

(iii) 通用可迁移的 GNN 称为深度通用可迁移的图神经网络(Dugnn)

(iv) GNN 的稳定性理论和泛化保证。

在这里插入图片描述

论文题目:Towards Learning Powerful Deep Graph Neural Networks and Embeddings

作者:Saurabh Verma

类型:2020年博士论文

学校:University of Minnesota(美国明尼苏达大学)

阅读原文

https://mp.weixin.qq.com/s?__biz=MzU4NTQyNjc5Mg==&mid=2247485341&idx=1&sn=160617183138c11b1b4b3631d7a57835&chksm=fd8bf59acafc7c8c00b2285da26fb56a000998efe47e61a835d98982962731757fe578270dc8&token=1070212246&lang=zh_CN#rd

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值