《Graph Neural Networks Foundations,Frontiers and Applications》预备章节(名词)翻译和解读

书名:《Graph Neural Networks Foundations,Frontiers and Applications》(图神经网络的基础、前沿和应用)

出版社:Springer Berlin Heidelberg

作者:Lingfei Wu · Peng Cui · Jian Pei · Liang Zhao

红色部分为个人的一些解读,不足之处请多多指点!

名词

        本章描述本书中使用的与图神经网络有关的术语的定义清单。

1.图的基本概念

        图。图由一个节点集和一个边集组成,其中节点代表实体,边代表实体之间的联系。节点和边构成了图的拓扑结构。除了图的结构外,节点、边或整个图都可以与丰富的信息相关联,这些信息表示为节点/边/图的特征(也被称为属性或内容)。

        子图。子图也是一个图,其节点集和边集都是原始图的子集。

        中心性。中心性是对图中节点的重要性的一种测量。中心性的基本假设是,如果许多其他重要的节点与该节点相连,则认为该节点也是重要的。常见的中心性测量包括度中心性、特征向量中心性、介数中心性和紧密中心性。

        邻域。一个节点的邻域一般指的是与它相近的其他节点。例如,一个节点的k阶邻居,也称为k阶邻域,表示一些节点的集合,这些节点与中心节点之间的最短路径距离不大于k

        社区结构。一个社区指的是一组内部连接密集、外部连接不密集的节点。

        图采样。图采样是一种从原始图中挑选一个节点或边(或两者都挑选)的子集的技术。图采样可以应用于在大规模图上训练机器学习模型,同时防止严重的可扩展性问题。

        异质图。如果图的节点或边(或两者都)来自不同的类型,那么图就被称为异质图。异质图的一个典型例子是知识图谱,其中的边由不同类型组成。(例如,关系图中,有些边代表的是朋友关系,而有些边代表的是亲属关系)

        超图。超图是图的泛化,其中一条边可以连接任意数量的节点。

        随机图。随机图一般旨在为观察到的图上的概率分布建模,而观察到的图是由这些概率分布产生的。最基本的和研究的最透彻的随机图模型,被称为Erdos-Renyi模型,假定节点集是固定的,每条边都是相同和独立产生的。

        动态图。动态图指的是当图的数据至少有一个组成部分随时间变化时,例如,增加或删除节点,增加或删除边,改变边的权重或改变节点属性等。如果图不是动态的,我们将其称为静态图。

2.图上的机器学习

        谱图理论。谱图理论分析与图相关的矩阵,比如其邻接矩阵或拉普拉斯矩阵,使用线性代数的工具,例如研究矩阵的特征值和特征向量。

        图信号处理。图信号处理\left ( GSP\right )旨在开发处理图上定义的信号的工具。图信号是指数据样本的有限集合,图中的每个节点都有一个样本。

        节点级任务。节点级任务指的是与图中单个节点相关的机器学习任务。节点级任务的典型例子包括节点分类和节点回归。

        边级任务。边级任务指的是与图中一对节点相关的机器学习任务。边级任务的一个典型例子是链接预测。

        图级任务。图级任务指的是与整个图相关的机器学习任务。图级任务的典型例子包括图分类和图属性预测。

        转导式和归纳式学习。转导式学习是指在训练时观察到目标实例,如节点或边(尽管目标实例的标签仍然是未知的),归纳学习的目的是学习可推广到未观察到的实例的模型。(归纳式学习与我们通常所知的传统监督机器学习是一样的。我们基于已有标记的训练数据集构建和训练机器学习模型。然后我们使用这个训练过的模型来预测我们的测试数据集(之前模型并没有遇到测试集里面的数据)的标签。与归纳式学习相反,转导式学习事先观察了所有的数据,包括训练数据集和测试数据集。从已经观察到的训练数据集中学习,然后预测测试数据集的标签。即使我们不知道测试数据集的标签,我们也可以在学习过程中利用这些数据中的模式和其他信息。)

3.图神经网络

        网络嵌入。网络嵌入的目标是将图中的每个节点的特征表示为一个低维向量,以便在嵌入向量中保留有用的信息,如图结构和图的一些属性。网络嵌入也被称为图嵌入和节点表示学习。

        图神经网络。图神经网络是指任何在图数据上工作的神经网络。

        图卷积网络。图卷积网络通常指的是Kipf和Welling Kipf and Welling(2017a)提出的特定图神经网络。在一些文献中,它偶尔会被用作图神经网络的同义词,即指任何在图数据上工作的神经网络。

        消息传递。消息传递是图神经网络的一个框架,其中的关键步骤是根据每个神经网络层的图结构在不同的节点之间传递消息。最广泛采用的表述,通常表示为消息传递神经网络,即只在直接连接的节点之间传递消息(该框架由Gilmer等人提出(2017))。消息传递函数在一些文献中也被称为图滤波器和图卷积。

        读出。读出指的是对单个节点的信息进行总结以形成更多高级信息的函数,如形成子图/超图或获得整个图的表示。在一些文献中,读出也被称为池化和图粗化。

        图对抗攻击。图对抗攻击的目的是通过操纵图结构或节点特征(或两者都被操纵)产生最坏情况下的扰动,从而使一些模型的性能下降。图对抗攻击可以根据攻击者的目标、能力和可获得的知识进行分类。

        稳健性证明。提供正式保证的方法,就是说即使根据某个扰动模型进行扰动,GNN的预测也不受影响。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘大彪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值