《Graph Neural Networks Foundations,Frontiers and Applications》第一部分第二章第2.2节翻译和解读

书名:《Graph Neural Networks Foundations,Frontiers and Applications》(图神经网络的基础、前沿和应用)

出版社:Springer Berlin Heidelberg

作者:Lingfei Wu · Peng Cui · Jian Pei · Liang Zhao

红色部分为个人的一些解读,不足之处请多多指点!

第一部分 引言

第二章 图表示学习

第2.2节 传统图嵌入

        传统的图嵌入方法最初是作为降维技术来研究的(比如一个论文分类任务,一个节点是一个1433维向量,总的论文类别是六类,图表示学习就是要把1433维降到6维以完成分类任务)。图通常是由一个特征表示的数据集构建的,比如图像数据集。如前所述,图的嵌入通常有两个目标,即重构原始图结构和支持图推理。传统的图嵌入方法的目标函数主要针对图重建的目标。(即降低图中节点的维度并保留图的结构信息,也就是邻接信息不变)

        具体来说,Tenenbaum等人(2000)首先利用K近邻(KNN)等连接算法构建了一个邻接图G。然后基于G,可以计算出不同数据之间的最短路径。因此,对于数据集中的所有N个数据条目,我们就有了对应的图距离矩阵。最后,经典的多维缩放法(MDS)被应用于该矩阵以获得坐标向量。通过Isomap学习的表示近似地保留了低维空间中条目对的距离。Isomap的关键问题是它的高复杂性,因为要计算成对的最短路径。局部线性嵌入(LLE)(Roweis和Saul,2000)被提出来,以消除估计相距甚远的条目之间的成对距离的需要。LLE假设每个条目和它的邻居都位于或接近主折叠的局部线性补丁。为了描述局部几何特征,每个条目都可以从它的邻居那里重构出来。最后,在低维空间中,LLE在局部线性重建的基础上构建一个邻域保全映射。拉普拉斯特征图(LE)(Belkin和Niyogi,2002)也是先用ε-邻域或K近邻来构造一个图。然后利用热核(Berline等人,2003)来选择图中两个节点的权重。最后,可以通过基于拉普拉斯矩阵的正则化来获得节点的表示。此外,还提出了位置保护投影(LPP)(Berline等人,2003),这是一个非线性LE的线性近似。

        这些方法在丰富的图嵌入文献中通过考虑构建的图的不同特征而得到了扩展(Fu and Ma, 2012)。我们可以发现,传统的图嵌入大多工作在由特征表示的数据集构建的图上,其中由边缘权重编码的节点之间的接近性在原始特征空间中被定义得很好。而与此相反,下面将介绍的现代图嵌入,主要工作在自然形成的网络上,如社交网络、生物网络和电子商务网络。在这些网络中,节点之间的邻接关系没有明确或直接定义。例如,两个节点之间的边通常只是意味着它们之间存在着一种关系,但不能表明具体的接近程度。另外,即使两个节点之间没有边,我们也不能说这两个节点的接近度为零。节点接近度的定义取决于具体的分析任务和应用场景。因此,现代图嵌入通常包含丰富的信息,如网络结构、属性、边信息和高级信息,以促进不同问题和应用。现代图嵌入需要针对前面提到的两个目标。有鉴于此,传统图嵌入可以被看作是现代图嵌入的一个特例,而现代图嵌入的最新研究进展则更加关注网络推理。

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘大彪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值