图网络
文章平均质量分 70
怕狗子的福哥
这个作者很懒,什么都没留下…
展开
-
Deep InfoMax
Deep InfoMax一级目录2、算法模型3、目标函数一级目录2、算法模型上图是一个图像数据的基本编码器模型,编码器设为EEE,输入一张图片XXX,经过几层卷积,得到一个M∗M∗channelsM*M*channelsM∗M∗channels的特征图,再将这些特征经过卷积展开或全连接层的计算,得到一个一维的特征向量YYY,就是输入数据的高层语义信息。论文指出,基于DIMDIMDIM的编码器目标是:3、目标函数# y是经过卷积和多层线性层最后输出的vector, M是经过卷积和一层线原创 2021-02-04 15:51:46 · 2842 阅读 · 2 评论 -
General Partial Label Learning via Dual Bipartite Graph Autoencoder
General Partial Label Learning via Dual Bipartite Graph Autoencoder1、Abstract二级目录三级目录1、Abstract本文创新点1、将PLL(Partial Label Learning)PLL(Partial\ Label\ Learning)PLL(Partial Label Learning)扩充到GPLL(General Partial Label Le原创 2020-09-15 09:49:34 · 324 阅读 · 0 评论 -
Graph Convolutional Matrix Completion
Graph Convolutional Matrix Completion1、Revisiting graph auto-encoders 图自编码器1.1 符号定义1.2 Revisiting graph auto-encoders 图自编码器1.3 Graph convolutional encoder 图卷积编码器1.4 Bilinear decoder 双线性解码器1.5 模型训练1、Revisiting graph auto-encoders 图自编码器1.1 符号定义MMM:评分矩阵,维原创 2020-09-13 20:27:33 · 771 阅读 · 0 评论 -
CommunityGAN: Community Detection with Generative Adversarial Nets
CommunityGAN: Community Detection with Generative Adversarial Nets1、Introduction1、Introduction社区检测问题:识别具有高度相似属性或特征的顶点重叠社区:传统的算法是基于K−meansK-meansK−means,Gaussian Mixture ModelGaussian\ Mixture\ ModelGaussian Mixture Model等聚类算法,这就使原创 2020-09-08 23:17:46 · 1691 阅读 · 1 评论 -
GraphGAN: Graph Representation Learning with GAN
GraphGAN: Graph Representation Learning with GAN1、Introduction2、GraphGAN Framework2.1 OptimizationDiscriminator OptimizationGenerator OptimizationGraph Softmax for Generator1、Introduction网络表示学习方法可以分成两个类别。Generative model假定对于每一个顶点vcv_cvc ,在图中存在一个潜在的、真原创 2020-09-06 19:44:22 · 1620 阅读 · 0 评论 -
子图采样总结
子图采样总结1、按层采样的方法(FastGCN & AS-GCN)1、按层采样的方法(FastGCN & AS-GCN)论文中对每个顶点(独立同分布,有放回地均匀采样)的概率采用1/tl1/t_{l}1/tl论文中完整的算法描述如下...原创 2020-08-22 23:36:34 · 1851 阅读 · 0 评论 -
GraphSAINT: Graph Sampling Based Inductive Learning Method
GraphSAINT: Graph Sampling Based Inductive Learning Method1、背景Layer Sampling:Graph Sampling:2、GraphSAINT2.1 算法流程2.1.1 normalization techniques to eliminate biases2.1.2 minibatch loss2.1.3 VARIANCE2.2 子图采样3、期望、方差、协方差1、期望2、方差3、协方差4、相关系数在GCN中,需要从每一层的邻居中传递节点的原创 2020-08-20 16:39:11 · 2476 阅读 · 0 评论 -
《Large-Scale Learnable Graph Convolutional Networks》
《Large-Scale Learnable Graph Convolutional Networks》1、模型算法Learnable Graph Convolutional Layersk-largest Node Selection1-D卷积神经网络Learnable Graph Convolutional NetworksSub-Graph Training on Large-Scale Data1、模型算法Learnable Graph Convolutional Layersk-larg原创 2020-08-17 13:33:03 · 587 阅读 · 1 评论 -
图网络论文github总结
GNN1、《The Graph Neural Network Model 》github:https://github.com/mtiezzi/gnnGCN1、{Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering}具有快速局部光谱滤波的图卷上的卷积神经网络Model_1: ChebNet(2016)-github-cnn_graph (tensorflow)2、{Semi-Superv原创 2020-08-08 12:50:53 · 638 阅读 · 0 评论 -
Dual Graph Convolutional Networks for Graph-Based Semi-Supervised Classification
Dual Graph Convolutional Networks for Graph-Based Semi-Supervised ClassificationIntroduction[ Local Consistency Convolution:ConvAConvAConvA ](https://blog.csdn.net/qq_45312141/article/details/106711724)Global Consistency Convolution:ConvPConvPConvP整合局部和全局原创 2020-06-22 18:20:02 · 2224 阅读 · 0 评论 -
Diffusion-Convolutional Neural Networks
Diffusion-Convolutional Neural Networks模型详述Node ClassificationGraph Classification模型详述AtA_tAt表示图的邻接矩阵,PtP_tPt表示度归一化转移矩阵,(Pt)ij(P_t)_{ij}(Pt)ij表示由节点iii转移到jjj的概率,可以由AtA_tAt计算得到,可以认为是权重矩阵。AtA_tAt矩阵有一个性质:AtA_tAt矩阵的幂级数AtnA^n_tAtn中的一个元素(Atn)ij(A原创 2020-06-18 16:00:55 · 671 阅读 · 0 评论 -
Weisfeiler-Lehman(WL)算法
Weisfeiler-Lehman 算法 Weisfeiler-Lehman(WL)算法The Weisfeiler-Lehman Test of IsomorphismThe General Weisfeiler-Lehman Kernels1.The Weisfeiler-Lehman Kernel Framework2.The Weisfeiler-Lehman Subtree Kernel多图上计算The Weisfeiler-Lehman Subtree KernelTHE RAMON-GARTN原创 2020-06-16 20:57:18 · 11948 阅读 · 4 评论 -
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs一级目录Node Sequence Selection三级目录一级目录Node Sequence Selection首先对于输入的一个GraphGraphGraph,需要确定一个宽度www,它表示也就是要选择的nodesnodesnodes的个数。其实也就是感知野的个数(其实这里也就是表明,每次卷积一个nodenodenode的感知野,卷积的stride=kernel sizestride= k原创 2020-06-15 17:19:10 · 1225 阅读 · 0 评论 -
Convolutional Networks on Graphs for Learning Molecular Fingerprints
Convolutional Networks on Graphs for Learning Molecular FingerprintsIntroductionIntroductionIntroductionCircular fingerprintsCircular\ fingerprintsCircular fingerprintsCreating a differentiable fingerprintCreating\ a\ differentiable\原创 2020-06-13 20:00:40 · 672 阅读 · 0 评论 -
Adaptive Graph Convolutional Neural Networks
Adaptive Graph Convolutional Neural Networks1、Introduction1、Introduction1、Introduction2、Method2、Method2、Method2.1 SGC−LL Layer2.1\ SGC-LL\ Layer2.1 SGC−LL Layer1.学习图Laplacian2.训练图更新的度量3.特征转换重参数化4. 残差图Laplacian2.2 AGCN网络Graph Max Pooli原创 2020-06-12 19:41:00 · 3364 阅读 · 2 评论 -
Semi-Supervised Classification with Graph Convolutional Networks
Semi-Supervised Classification with Graph Convolutional Networks1、简介2、图上的快速近似卷积3、谱图卷积3.1 原始GCN3.2 加速版本的GCN3.3 线性模型3.4 实例1、简介我们考虑在图形(例如引用网络)中对节点(例如文档)进行分类的问题,其中标签仅可用于一小部分节点。 这个问题可以被定义为基于图的半监督学习,其中标签信息通过基于图的显式正则化在图上平滑。例如 通过在损失函数中使用图拉普拉斯正则化项:L0L_0L0是图的原创 2020-06-12 13:44:57 · 465 阅读 · 0 评论 -
Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering
Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering1、主要贡献2、算法介绍2.1 学习局部化谱filtersk阶近似与ChebNet2.2 图池化图粗化快速pooling1、主要贡献1、谱方法的卷积公式。一种基于谱方法的CNN的形式化表述,基于GSP2、严格的局部化的filters。局部化就是定义了一个参数K,K代表以一个节点为中心的K次跳跃(也就是距离为K)。3、小的计算复杂度原创 2020-06-09 16:47:10 · 2542 阅读 · 0 评论 -
Spectral Networks and Deep Locally Connected Networks on Graphs
Spectral Networks and Deep Locally Connected Networks on Graphs空域构建(Spatial Construction)深度局部连接网络多层空域卷积频域构建(Spectral Construction)三级目录空域构建(Spatial Construction)深度局部连接网络多层空域卷积deep locally connect network(spatial construction从空间原创 2020-06-07 22:40:58 · 603 阅读 · 1 评论 -
GATED GRAPH NEURAL NETWORKS(GGNN)
这里写目录标题GG-NNGGS-NNsGG-NNGGNN网络使用了GRU(Gate Recurrent Units),在固定的 T 时间步中展开RNN,并使用BPTT算法(Back Propagation Through Time)以计算梯度。补充:GGNN并不能保证图的最终状态会到达不动点。由于更新次数 T 变成了固定值,因此GGNN可以直接使用BPTT算法来进行梯度的计算。相比于一般的GNN使用Almeida-Pineda算法需要更多的内存,但是不需要约束参数以满足压缩映射(contractio原创 2020-06-05 21:07:55 · 2908 阅读 · 1 评论 -
《The Graph Neural Network Model 》
《The Graph Neural Network Model 》AbstractAbstractAbstractIntroductionIntroductionIntroductionThe Graph Neural Network ModelThe\ Graph\ Neural\ Network\ ModelThe Graph Neural Network Model符号A. The Model[Banach′s原创 2020-05-28 11:15:15 · 1548 阅读 · 0 评论 -
谱图理论(spectral graph theory)
@[TOC](谱图理论(spectral graph theory))1、如何理解特征值和特征向量1.1特征向量描述运动的方向我们知道,对于矩阵AAA可以对角化的话,可以通过相似矩阵进行下面这样的特征值分解:A=PΛP−1A=P\Lambda P^{-1}A=PΛP−1wherewherewhere Anx=PΛP−1PΛP−1PΛP−1...PΛP−1A^n x=P\Lambda P^{-1}P\Lambda P^{-1}P\Lambda P^{-1}...P\Lambda P^{-1}An原创 2020-05-26 13:19:33 · 3284 阅读 · 0 评论 -
图卷积的理解
图卷积的理解1、拉普拉斯矩阵的谱分解(特征分解)2、如何从传统的傅里叶变换、卷积类比到Graph上的傅里叶变换及卷积?3、为什么拉普拉斯矩阵的特征向量可以作为傅里叶变换的基?特征值表示频率?4、Deep Learning中的Graph Convolution[5、GCN中的Parameter Sharing](https://zhuanlan.zhihu.com/p/72373094)1、拉普拉斯矩阵的谱分解(特征分解)2、如何从传统的傅里叶变换、卷积类比到Graph上的傅里叶变换及卷积?原创 2020-05-25 23:48:17 · 1306 阅读 · 0 评论 -
傅里叶变换
1、如何通俗地理解傅立叶变换1.1从傅立叶级数到傅立叶变换1.2如何通俗地解释欧拉公式 eπi+1=0e^πi+1=0eπi+1=0怎么理解虚数和复数?原创 2020-05-25 14:03:42 · 246 阅读 · 0 评论 -
谱聚类(Spectral Clustering)
谱聚类(Spectral Clustering)1. 谱聚类概述2. 谱聚类基础2.1、谱2.2 无向权重图2.3 相似矩阵/邻接矩阵 W2.3 拉普拉斯矩阵拉普拉斯性质一拉普拉斯性质二拉普拉斯性质三3 用切图的观点来解释谱聚类3.1 最小切(mincut)3.2 RatioCut切图3.3 Ncut切图扩展4 谱聚类算法流程谱聚类算法总结1. 谱聚类概述谱聚类是从图论中演化出来的算法,后来在聚类中得到了广泛的应用。它的主要思想是把所有的数据看做空间中的点,这些点之间可以用边连接起来。距离较远的两个原创 2020-05-24 19:40:35 · 829 阅读 · 0 评论 -
图注意力网络(GAT)
@TOC一、INTRODUCTION图注意力网络(GAT)Graph attention network缩写为GAT,若按照首字母大写,会与对抗生成网络GAN混淆。所以后面GAT即本文的图注意力网络。论文地址 https://arxiv.org/abs/1710.10903代码地址: https://github.com/Diego999/pyGAT1.1 相关研究Semi-Supervised Classification with Graph Convolutional Networks,原创 2020-05-23 17:59:38 · 10158 阅读 · 0 评论