图神经网络PPT


百度网盘链接:链接:https://pan.baidu.com/s/1h485Kl1ZU7E00LXzWn72jg?pwd=5757
提取码:5757

  • 纯原创,自制ppt以及文稿

1 图神经网络ppt

  • 预览图
    在这里插入图片描述

2 图神经网络稿

老师好!(点)

接下来,我主要分为四个部分来介绍图神经网络(点)

首先,第一个部分:什么是图(点)

图简单来说,是表示一些实体之间关系的一种数据结构,实体在图中用节点表示,它们之间的关系用边表示。如图就是是一个含有5个节点,6条边的图。此外,根据边是否具备有向性,还将图划分为有向图和无向图。(点)

在该图中一共有四层,每层之间都有交互功能(点)

比如第二层是由第三层的五个点交互而来的(点)

第一层是由,第二层和第三层的点,交互而来的,所有只要层次够深,一个顶点可以处理到大范围图里面的节点信息,这也是图神经网络是如何利用结构化来处理信息的(点)

接下来,来看一下图神经网络是如何将图片表示成图的(点)

在卷积神经网络中,我们会将一个RGB图片表示成一个张量,但是在图神经网络中,我们将每一个像素映射为图中的一个节点,相邻像素之间视为有连接关系,这种连接关系映射为图中的一条边,如图所示,通过一个邻接矩阵来表示这种映射关系,横轴和纵轴均为像素的标号,两个像素之间存在连接关系时便标为蓝色。(点)

在该图的左边是图片,右边表示的是邻接矩阵,0-0表示第0行第0列,
有三条边表示成他的邻居(点)

同样道理,我们来看中间的点,2-2,对应的就是第二行第二列,上下左右一共八条边都是表示成邻居,中间的是邻接矩阵,蓝色表示顶点之间是有边的,白色表示没有边的,可以看见,这是一个非常稀疏化的矩阵(点)

不仅仅是图片,文本也可以认为是一条序列,可以把其中每一个词,都表示成一个顶点,那么一个词和下一个词之间都有一条有向边,(点)

第三部分:在机器学习中使用图的挑战(点)

把数据表示成图之后,在图层面上的任务是,有一张原始的图,识别哪个是有两个环的,哪个是有仅有一个环的,然后对图进行分类(点)

在顶点层面:可以对点进行分类,该图主要是判断点,到底是属于绿色阵营的还是红色阵营的(点)

在边层面:先通过语义分割,把人物和背景都分割出来之后(点)

判断人与人之间是什么样的人物关系,然后再将边上的属性给预测出来(点)

接下来让我们具体看看到底什么是图神经网络呢(点)

首先,图的四种属性是非常重要的:节点,边,全局信息,和连接性。前三者只要各自采用特征向量的形式就可以与神经网络相兼容了,但是连接性表征的是哪两个节点之间有连接关系,这用向量并不容易表示。(点)

一种想法是用上面提到的邻接矩阵来表示连接性,但是邻接矩阵的大小是节点数×节点数的方阵,当节点数很大的时候会给存储带来麻烦,并且在邻接矩阵中很多节点直接并没有连接关系,是一个稀疏矩阵,但是,稀疏矩阵对于GPU而言难以高效计算。(点)

所以又提出了,一种高效表示稀疏矩阵的方法,就使用邻接列表,如图所示,该图共有8个节点,为了方便,每个节点和每条边都用一个标量值表示。邻接列表的长度和边的个数是相同的,邻接列表中每一个元素表示的是一条边的两个节点的标号。值得注意的是,邻接列表中元素的顺序,与边中元素的顺序是一致的。(点)

最简单的版本是这样构造的,对于顶点向量,边向量和全局向量,分别构造一个MLP,就是多层感知机,如图所属,U就表示全局,V表示顶点,E表示边,多层感知机的输入大小和输出大小是一样的。将输入图的属性向量传入对应的MLP,输出得到更新后的属性,如图所示,输出图相较于输入图仅仅是属性的值被更新,但是图的结构并未发生变化(点)

以对节点信息进行“二分类”任务为例,将最后一层输出的图中的节点向量传入全连接层,经过全连接层即可输出每个节点的预测结果。比如我们在后面就加一个输出维度为2的全连接层,然后再加一个softmax就会得到一个二分类的输出了,如果做的是n类的话,那么就做一个输出大小维度为n的一个全连接层,就会得到多类输出(点)

还有一种特殊情况是节点没有向量信息,但是边都具有向量信息,如果仍然要对节点做预测,就要采用一种称为“汇聚”(pooling)的技术。pooling操作首先将与该节点相连接的边向量取出,另外还要取全局图向量,然后对这些向量进行加和的操作得到一个新的向量,这个向量作为这个节点的向量信息。但是注意,这里我们默认节点、边、全局图向量的维度都是相同的,所以可直接进行加和操作,如果不相同,需要先投影变换到节点向量的维度。(点)

如图展示了所搭建的最简单的图神经网络进行端到端预测的流程。(点)

接着我们通过采用“消息传递”来实现对信息连接性的利用,如图所示:首先收集要更新的节点和其邻节点,然后求和,得到一个汇聚的向量,再把这个汇聚的向量输入已更新节点的多层感知机层,就会得到这个点向量的更新,这就是最简单形式的消息传递。(点)

在图中彼此距离较远的节点可能永远无法有效地相互传递信息,因此解决这个问题的一个办法是使用图的全局U表示,它与网络中的所有节点和边相连,可以作为它们之间传递信息的桥梁,为整个图建立起一个表示。(点)

到这里,我们可以发现,消息传递似乎与卷积有异曲同工之妙。在卷积神经网络中,我们通过卷积核的滑动,对像素进行加权求和,且随着卷积层的叠加,特征图一个特征点所对应的原图感受野会越来越大;同理,在消息传递中,我们只进行了求和,所以可以看成是权重均为1的卷积操作,图神经网络层叠加的越多,最后一层图中一个节点汇聚原图中的节点也就越多,这样就完成了较长距离的信息传递过程。(点)

以上就是关于图神经网络的汇报(点)

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

没有难学的知识

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值