![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图神经网络
文章平均质量分 53
晓源Galois
找工作状态
展开
-
图神经网络|图注意网络Graph Attention Network
Leaky ReLU 有利于压低负数对结局的影响。原创 2024-01-13 20:46:54 · 422 阅读 · 0 评论 -
神经网络|张量tensor(待完善)
张量是用来探究一个点在各个切面(一共三个切面)和各个方向(x,y,z三个方向)上的受力情况。所以一共有九种情况,可以用一个3x3的矩阵进行存储。探究长方体内某一个节点的受力情况。原创 2024-01-13 03:07:06 · 494 阅读 · 0 评论 -
图神经网络|5.消息传递的计算方法 6.多层GNN的作用
注意,在实际的边的实现方式中,并不是以邻接矩阵来进行实现的,这是因为在图的更新中,用邻接矩阵进行更新所占用的时间开销相对大,二是因为领接矩阵占用的空间大(N方)。所以在实际实现中会采用2XN的存储结构,从而避免多余的存储开销。原创 2024-01-07 08:45:59 · 438 阅读 · 0 评论 -
图神经网络|7.1-GCN基本模型概述
比如在交通网络中,点对应城市中各个区域的传感器,由于配置的先后问题和经济考虑,有些偏远地区并没有来得及配得上,会缺乏相关数据的支持。实际情况下并不是所有节点都有打上标签。原创 2024-01-07 12:30:14 · 369 阅读 · 0 评论 -
图神经网络|8.2 图卷积的计算基本方法
原因是只需要少数次数迭代后(当迭代次数为图上的直径?任意两点最短距离的最大值?),某节点便可获取得到图上所有的节点。通俗的理解是,在社会中,只需要认识几个人,便可通过裙带关系认识到社会中的大多数人。特征矩阵第i行j列表示的元素表示对第j种属性来说第i个点所配备的权重。而邻接矩阵的第i行第j列,表示第i个点是否受第j个点的影响。不同于一般的神经网络,网络层数的并不用特别多。原创 2024-01-07 13:44:10 · 470 阅读 · 0 评论 -
图神经网络|9.3 邻接矩阵的变换
而这就相当于矩阵内同一个元素做了两次归一化,于是可以将度矩阵开个方(将对角矩阵开方是可以做到的)此时可以再邻接矩阵的基础上,再加上一个单位阵,从而使得最终的结果包含自身对整体的贡献。左乘度矩阵的逆只是对行向量做归一化。于是需要右乘上一个矩阵对列向量做归一化。由于邻接矩阵中一般不会(i,i)等于1,除非第i个点上有自环。而如果用邻接矩阵去乘上特征矩阵,那么将丢失自身向自身的贡献。也就是说需要再做一个加权平均的过程。将新矩阵的每个点的度来组成对角矩阵。从而得到用于求取平均值的矩阵。但这样仍会存在问题。原创 2024-01-07 15:29:31 · 524 阅读 · 0 评论 -
图神经网络|10.4 GCN 变换原理的解读
假设节点j是一个富二代,且从i和j这对关系进行考虑,j可能认识很多人(对应的度很大),而j可能并不是很认真去对待节点i,所以i和j这对关系对i是一个富二代身份的贡献量应该与j的度数呈反比。图神经网络层数越多效果并不一定越好。(原因可能是某个节点,可能接受到偏远的且和自身属性比较不搭的点的信息)(如果j是一个富二代,又没有几个朋友,几乎只和i认识,那么大概率i也是一个富二代)可知,理解矩阵通过两个度矩阵的逆进行归一化。比如预测人脉图中某一个人是否为富二代。原创 2024-01-08 01:24:26 · 917 阅读 · 0 评论 -
图神经网络X项目|基于图神经网络的电商行为的预测(10%)
第二步,刚开始这些点并没有图的编号(有session_id,但并不是一个方便建图的编号),于是可以采取按某一个关键字进行排序的方法,按大小给图上的节点进行重新编号。表示的是某次会话下的某个操作,category代表购买情况,其中0代表未购入,1代表购入。考虑复用性的话,记得将构造出来的数据集进行保存。应用场景:数据集过多,抽取部分数据进行观察。可以选取出列表/集合中的其中一项。表示的是某次会话的编号,而。应用场景:可用于熟悉操作。工具:使用分片进行操作。应用场景:可以可视化进度。后几步,开始制作边集。原创 2024-01-22 21:44:17 · 651 阅读 · 0 评论