- 博客(21)
- 收藏
- 关注
原创 【无标题】
然而GCN要求在一个确定的图中去学习顶点的embedding,无法直接泛化到在训练过程没有出现过的顶点,即属于一种直推式(transductive)的学习。出于对计算效率的考虑,对每个顶点采样一定数量的邻居顶点作为待聚合信息的顶点。我们的每一层GCN的输入都是邻接矩阵A和node的特征H,那么我们直接做一个内积,再乘一个参数矩阵W,然后激活一下,就相当于一个简单的神经网络层嘛,是不是也可以呢?当然,若不考虑计算效率,我们完全可以对每个顶点利用其所有的邻居顶点进行信息聚合,这样是信息无损的。
2023-06-08 22:09:35 35
原创 Graph embedding
1.DeepWalk:采用随机游走,形成序列,采用skip-gram方式生成节点embedding2.node2vec:不同的随机游走策略(BFS结构性,DFS同质性),形成序列,类似采用skip-gram方式生成节点embedding3.LINE:捕获节点的一阶和二阶相似度,分别求解,再将一阶二阶拼接在一起,作为节点的embedding4.struc2vec:堆土的2结构信息进行捕获,在其结构重要性大于邻居重要性时,有较好的效果。
2023-06-08 16:31:01 44
原创 图的基础知识
简单来说就是,先计算每一个节点的中心度构成一个向量,然后不断地乘以一个相同的矩阵A,构成一个新的向量,该向量继续不断地乘以A,向量中的元素比例保持不变,这个向量就是特征向量。其中的每一个元素就是特征向量中心度。阻尼系数0.85表示:假设节点3的pagerank传向节点4,有(1-0.85)的概率传不到节点4,二传到其它节点。此节点的hub=此节点指向其它节点,被指向节点的authority的和。此节点的authority=指向此节点的其它节点的hub的和。
2023-06-06 22:02:57 42
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人