自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(57)
  • 收藏
  • 关注

原创 Deep InfoMax

Deep InfoMax一级目录2、算法模型3、目标函数一级目录2、算法模型上图是一个图像数据的基本编码器模型,编码器设为EEE,输入一张图片XXX,经过几层卷积,得到一个M∗M∗channelsM*M*channelsM∗M∗channels的特征图,再将这些特征经过卷积展开或全连接层的计算,得到一个一维的特征向量YYY,就是输入数据的高层语义信息。论文指出,基于DIMDIMDIM的编码器目标是:3、目标函数# y是经过卷积和多层线性层最后输出的vector, M是经过卷积和一层线

2021-02-04 15:51:46 2769 2

原创 General Partial Label Learning via Dual Bipartite Graph Autoencoder

General Partial Label Learning via Dual Bipartite Graph Autoencoder1、Abstract二级目录三级目录1、Abstract本文创新点1、将PLL(Partial Label Learning)PLL(Partial\ Label\ Learning)PLL(Partial Label Learning)扩充到GPLL(General Partial Label Le

2020-09-15 09:49:34 306

原创 Graph Convolutional Matrix Completion

Graph Convolutional Matrix Completion1、Revisiting graph auto-encoders 图自编码器1.1 符号定义1.2 Revisiting graph auto-encoders 图自编码器1.3 Graph convolutional encoder 图卷积编码器1.4 Bilinear decoder 双线性解码器1.5 模型训练1、Revisiting graph auto-encoders 图自编码器1.1 符号定义MMM:评分矩阵,维

2020-09-13 20:27:33 699

原创 CommunityGAN: Community Detection with Generative Adversarial Nets

CommunityGAN: Community Detection with Generative Adversarial Nets1、Introduction1、Introduction社区检测问题:识别具有高度相似属性或特征的顶点重叠社区:传统的算法是基于K−meansK-meansK−means,Gaussian Mixture ModelGaussian\ Mixture\ ModelGaussian Mixture Model等聚类算法,这就使

2020-09-08 23:17:46 1526 1

原创 GraphGAN: Graph Representation Learning with GAN

GraphGAN: Graph Representation Learning with GAN1、Introduction2、GraphGAN Framework2.1 OptimizationDiscriminator OptimizationGenerator OptimizationGraph Softmax for Generator1、Introduction网络表示学习方法可以分成两个类别。Generative model假定对于每一个顶点vcv_cvc​ ,在图中存在一个潜在的、真

2020-09-06 19:44:22 1474

原创 子图采样总结

子图采样总结1、按层采样的方法(FastGCN & AS-GCN)1、按层采样的方法(FastGCN & AS-GCN)论文中对每个顶点(独立同分布,有放回地均匀采样)的概率采用1/tl1/t_{l}1/tl​论文中完整的算法描述如下...

2020-08-22 23:36:34 1740

原创 GraphSAINT: Graph Sampling Based Inductive Learning Method

GraphSAINT: Graph Sampling Based Inductive Learning Method1、背景Layer Sampling:Graph Sampling:2、GraphSAINT2.1 算法流程2.1.1 normalization techniques to eliminate biases2.1.2 minibatch loss2.1.3 VARIANCE2.2 子图采样3、期望、方差、协方差1、期望2、方差3、协方差4、相关系数在GCN中,需要从每一层的邻居中传递节点的

2020-08-20 16:39:11 2217

原创 服务器使用教程

ssh把本地的文件上传到服务器scp <本地文件名> <用户名>@<ssh服务器地址>:<上传保存路径即文件名如果希望将当前目录下的a.txt文件上传到ssh服务器上test文件夹并改名为b.txt,其中ssh服务器网址为127.0.0.1,用户名root。代码如下:scp a.txt [email protected]:/home/neo/test/b.txt...

2020-08-17 20:21:16 477

原创 《Large-Scale Learnable Graph Convolutional Networks》

《Large-Scale Learnable Graph Convolutional Networks》1、模型算法Learnable Graph Convolutional Layersk-largest Node Selection1-D卷积神经网络Learnable Graph Convolutional NetworksSub-Graph Training on Large-Scale Data1、模型算法Learnable Graph Convolutional Layersk-larg

2020-08-17 13:33:03 438 1

原创 直接使用欧氏距离作为损失函数的缺陷

直接使用欧氏距离作为损失函数的缺陷一 缺陷二 改进1、三元组损失(Triplet Loss)2、中心损失(Center Loss)三级目录1级标题2级标题3级标题四级标题五级标题六级标题一 缺陷如果我们直接以欧氏距离作为损失函数,模型的训练会出现这样的问题:对于人脸来说,每一类就是一个人,然而每一类中会有很多个样本(一个人有很多照片),直接用欧氏距离相当于只考虑了类内距离,未考虑类间距离,...

2020-08-12 14:35:40 3127

原创 图网络论文github总结

GNN1、《The Graph Neural Network Model 》github:https://github.com/mtiezzi/gnnGCN1、{Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering}具有快速局部光谱滤波的图卷上的卷积神经网络Model_1: ChebNet(2016)-github-cnn_graph (tensorflow)2、{Semi-Superv

2020-08-08 12:50:53 612

原创 3、Community structure in networks

Community structure in networks1、Community2、[Network communities](https://blog.csdn.net/bbbeoy/article/details/83026187)3、Louvain Algorithm4、BigCLAM1、Community将真实网络中的边,从高权重到低权重删除,与从低权重到高权重删除进行对比,可以看到高权重边在维持网络流通性方面较低权重边更重要。若将权重替换为边的重复度,会得到更显著的结果。

2020-07-30 20:19:59 259

原创 2、Motifs and Structural Roles in Networks

Motifs and Structural Roles in NetworksNetwork motifsConfiguration ModelGraphletsFinding Motifs and GraphletsStructural RolesStructural Roles的查找Network motifs在图中大量重复的模式被称为 motif可以看到相同领域的网络都有相似的子图分布。Motifs帮助我们理解网络如何工作,帮助我们预测网络在给定场景中的反映和行为。如以下三种分别在神

2020-07-29 17:39:15 274 1

原创 1、machine learning with graph

1、machine learning with graph1、Networks and applicationsembedding nodecomponents of a network1、Networks and applicationsembedding nodecomponents of a network节点的度图的全连接可以有最多的边,称为完全图邻接矩阵更多图的类型...

2020-07-28 11:51:16 267

原创 8、图的着色

8、图的着色1、图的边着色几类特殊图的边色数2、图的顶点着色3、与色数有关的几类图1、图的边着色几类特殊图的边色数2、图的顶点着色3、与色数有关的几类图

2020-07-27 17:17:50 117

原创 7、平面图

7、平面图平面图1、平面图性质1、平面图的次数公式2、平面图的Euler公式平面图1、平面图性质1、平面图的次数公式2、平面图的Euler公式

2020-07-27 13:23:00 434

原创 GANs

这里写目录标题1、GANs1.1数学基础1.2 GANs算法原理1、GANs1、GAN的原理入门2、李宏毅2017深度学习 GAN生成对抗神经网络相关学习视频合集1.1数学基础1、概率与统计概率与统计是两个不同的概念。概率是指:模型参数已知,XXX未知,p(x1)...p(xn)p(x_1) ... p(x_n)p(x1​)...p(xn​) 都是对应的xix_ixi​的概率统计是指:模型参数未知,XXX已知,根据观测的现象,求模型的参数2、似然函数与概率函数似然跟概率是同义词,所以似然

2020-07-08 18:44:57 230

原创 6、匹配与因子分解

6、匹配与因子分解1、偶图的匹配问题图的匹配与贝尔热定理偶图的匹配与覆盖点覆盖与哥尼定理Tutte定理与完美匹配1、偶图的匹配问题图的匹配与贝尔热定理贝尔热定理偶图的匹配与覆盖对于图GGG的任一顶点集合,所谓GGG中SSS的临集(或邻域)是指于SSS的顶点相邻的所有顶点的集,即为NG(S)N_G(S)NG​(S),简记为N(S)N(S)N(S)。点覆盖与哥尼定理Tutte定理与完美匹配图的分支根据它有及数个或偶数个顶点而分别为奇分支或偶分支,我们用o(G)o(G)o

2020-06-29 19:36:18 422

原创 5、图的连通度

5、图的连通度1、割边及其性质2、割点及其性质3、边割集4、点割集5、块及其性质6、连通度的概念及其性质哈拉里图敏格尔定理7、图的宽距离和宽直径宽直径一些主要的研究结果简介1、割边及其性质2、割点及其性质3、边割集4、点割集设 V′⊂VV'\subset VV′⊂V 且 V′V'V′不为空集,使得在无向图中去掉 V′V'V′ 中的点之后,图的连通分支增加,则称为无向图中的一个点割集。需要注意的是当删除 V′V'V′的任何一个真子集中的点之后,不会增加图的连通分支。当集合 V′

2020-06-28 22:47:31 533

原创 4、树

4、树1、树的概念与应用2、生成树3、回路4、最小生成树1、树的概念与应用树树的性质树的中心和形心2、生成树生成树概念生成树的性质生成树的计数1、凯莱递推计数法举例2、关联矩阵计数法举例3、矩阵树定理3、回路基本回路的性质对称差运算G1ΔG2=G1∪G2−(G1∩G2)G_1ΔG_2 = G_1∪G_2 - (G_1∩G_2)G1​ΔG2​=G1​∪G2​−(G1​∩G2​)4、最小生成树1、克鲁

2020-06-28 14:29:53 181

原创 3、图的代数表示

图的代数表示1、图的邻接矩阵2、图的关联矩阵3、邻接谱4、极图1、图的邻接矩阵邻接矩阵的性质设AAA是某个图的邻接矩阵:Aij2=∑k=1nAik×AkjA_{ij}^2=\sum\limits_{k=1}^{n}A_{ik}×A_{kj}Aij2​=k=1∑n​Aik​×Akj​邻接矩阵AAA中的元素都是用0,10,10,1来表示是否联通的,或者说,代表有没有方法从iii走到jjj。那么,Ai,k×AkjA_{i,k}×A_{kj}Ai,k​×Akj​就是表示从iii走到kkk再走到j

2020-06-23 23:46:27 1038

原创 Dual Graph Convolutional Networks for Graph-Based Semi-Supervised Classification

Dual Graph Convolutional Networks for Graph-Based Semi-Supervised ClassificationIntroduction[ Local Consistency Convolution:ConvAConvAConvA ](https://blog.csdn.net/qq_45312141/article/details/106711724)Global Consistency Convolution:ConvPConvPConvP整合局部和全局

2020-06-22 18:20:02 2097

原创 2、最短路径算法

最短路径算法1、Dijkstra算法2、Floyd算法3、Bellman-Ford算法1、Dijkstra算法思想:广度优先算法、贪心算法时间复杂度:是O(n2)O(n^2)O(n2)算法思想算法图解2、Floyd算法动态规划的思想时间复杂度为:O(n3)O(n^3)O(n3)算法的特点:弗洛伊德算法是解决任意两点间的最短路径的一种算法,可以正确处理有向图或有向图或负权(但不可存在负权回路)的最短路径问题,同时也被用于计算有向图的传递闭包。算法的思路通过FloydFl

2020-06-20 21:41:22 530

原创 1、图的基本概念

图的基本概念1、图的定义2、顶点的度3、图的同构4、图运算5、道路和回路6、E图7、H图1、图的定义图GGG是由两个集合VVV和EEE组成(记做G=(V,E)G = (V, E)G=(V,E)):V=V =V= {v1,v2,v3,...vn,v_1,v_2,v_3,...v_n,v1​,v2​,v3​,...vn​,}是由GGG的结点(vertexvertexvertex)组成的集合E=E =E= {e1,e2,e3,...ene_1,e_2,e_3,...e_ne1​,e2​,e3​,...

2020-06-19 19:57:03 321

原创 Diffusion-Convolutional Neural Networks

Diffusion-Convolutional Neural Networks模型详述Node ClassificationGraph Classification模型详述AtA_tAt​表示图的邻接矩阵,PtP_tPt​表示度归一化转移矩阵,(Pt)ij​(P_t)_{ij}​(Pt​)ij​​表示由节点iii转移到jjj的概率,可以由AtA_tAt​计算得到,可以认为是权重矩阵。AtA_tAt​矩阵有一个性质:AtA_tAt​矩阵的幂级数Atn​A^n_t​Atn​​中的一个元素(Atn)ij(A

2020-06-18 16:00:55 626

原创 Weisfeiler-Lehman(WL)算法

Weisfeiler-Lehman 算法 Weisfeiler-Lehman(WL)算法The Weisfeiler-Lehman Test of IsomorphismThe General Weisfeiler-Lehman Kernels1.The Weisfeiler-Lehman Kernel Framework2.The Weisfeiler-Lehman Subtree Kernel多图上计算The Weisfeiler-Lehman Subtree KernelTHE RAMON-GARTN

2020-06-16 20:57:18 10991 4

原创 Learning Convolutional Neural Networks for Graphs

Learning Convolutional Neural Networks for Graphs一级目录Node Sequence Selection三级目录一级目录Node Sequence Selection首先对于输入的一个GraphGraphGraph,需要确定一个宽度www,它表示也就是要选择的nodesnodesnodes的个数。其实也就是感知野的个数(其实这里也就是表明,每次卷积一个nodenodenode的感知野,卷积的stride=kernel sizestride= k

2020-06-15 17:19:10 1132

原创 Convolutional Networks on Graphs for Learning Molecular Fingerprints

Convolutional Networks on Graphs for Learning Molecular FingerprintsIntroductionIntroductionIntroductionCircular fingerprintsCircular\ fingerprintsCircular fingerprintsCreating a differentiable fingerprintCreating\ a\ differentiable\

2020-06-13 20:00:40 657

原创 Adaptive Graph Convolutional Neural Networks

Adaptive Graph Convolutional Neural Networks1、Introduction1、Introduction1、Introduction2、Method2、Method2、Method2.1 SGC−LL Layer2.1\ SGC-LL\ Layer2.1 SGC−LL Layer1.学习图Laplacian2.训练图更新的度量3.特征转换重参数化4. 残差图Laplacian2.2 AGCN网络Graph Max Pooli

2020-06-12 19:41:00 3060 2

原创 Semi-Supervised Classification with Graph Convolutional Networks

Semi-Supervised Classification with Graph Convolutional Networks1、简介2、图上的快速近似卷积3、谱图卷积3.1 原始GCN3.2 加速版本的GCN3.3 线性模型3.4 实例1、简介我们考虑在图形(例如引用网络)中对节点(例如文档)进行分类的问题,其中标签仅可用于一小部分节点。 这个问题可以被定义为基于图的半监督学习,其中标签信息通过基于图的显式正则化在图上平滑。例如 通过在损失函数中使用图拉普拉斯正则化项:L0L_0L0​是图的

2020-06-12 13:44:57 371

原创 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering

Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering1、主要贡献2、算法介绍2.1 学习局部化谱filtersk阶近似与ChebNet2.2 图池化图粗化快速pooling1、主要贡献1、谱方法的卷积公式。一种基于谱方法的CNN的形式化表述,基于GSP2、严格的局部化的filters。局部化就是定义了一个参数K,K代表以一个节点为中心的K次跳跃(也就是距离为K)。3、小的计算复杂度

2020-06-09 16:47:10 2364

原创 多层次聚类算法(Multi-level clustering algorithm)

多层次聚类算法1、相似性度量2、多层次聚类算法(Multi-level clustering algorithm)1、相似性度量2、多层次聚类算法(Multi-level clustering algorithm)

2020-06-08 18:23:12 3059

原创 Spectral Networks and Deep Locally Connected Networks on Graphs

Spectral Networks and Deep Locally Connected Networks on Graphs空域构建(Spatial Construction)深度局部连接网络多层空域卷积频域构建(Spectral Construction)三级目录空域构建(Spatial Construction)深度局部连接网络多层空域卷积deep locally connect network(spatial construction从空间

2020-06-07 22:40:58 578 1

原创 LSTM

推导:https://zybuluo.com/hanbingtao/note/581764import randomimport numpy as npimport mathdef sigmoid(x): return 1. / (1 + np.exp(-x))def sigmoid_derivative(values): return values*(1-values)def tanh(x): return 2.0 / (1.0 + np.exp(-2 *

2020-06-06 00:09:17 239

原创 GATED GRAPH NEURAL NETWORKS(GGNN)

这里写目录标题GG-NNGGS-NNsGG-NNGGNN网络使用了GRU(Gate Recurrent Units),在固定的 T 时间步中展开RNN,并使用BPTT算法(Back Propagation Through Time)以计算梯度。补充:GGNN并不能保证图的最终状态会到达不动点。由于更新次数 T 变成了固定值,因此GGNN可以直接使用BPTT算法来进行梯度的计算。相比于一般的GNN使用Almeida-Pineda算法需要更多的内存,但是不需要约束参数以满足压缩映射(contractio

2020-06-05 21:07:55 2809 1

原创 RNN

这里写目录标题RNN方法一前向传播损失函数反向传播方法二RNN方法一前向传播损失函数注意交叉熵损失计算反向传播VVV 的梯度计算:WWW 的梯度计算:误差计算:UUU 的梯度计算:import numpy as npclass ReluActivator(object): def forward(self, weighted_input): #return weighted_input return max(0, weig

2020-06-05 17:16:26 469

原创 基于矩阵形式的GNN模型实现

基于矩阵形式的GNN模型实现数据格式法一特别注意(这里使用交叉熵作为模型的损失函数,准确率作为评测结果的指标。这里直接根据loss计算梯度,对变量进行更新,没有像论文中那样计算梯度的稳定状态t,然后求t时刻的梯度)import tensorflow as tfimport numpy as npimport pandas as pdimport scipy.io as sioimport osdef f_w(inp): with tf.variable_scope('Sta

2020-06-03 16:57:59 506

原创 神经网络

神经网络import randomimport numpy as np# 全连接层实现类class FullConnectedLayer(object): def __init__(self, input_size, output_size, activator): ''' 构造函数 input_size: 本层输入向量的维度 output_size: 本层输出向量的维度 a

2020-06-02 21:01:30 173

原创 感知器

感知器import numpy as npclass Perceptron(object): def __init__(self,input_num,activate): self.activate = activate self.weights = np.random.rand(input_num) #self.weights = np.array([0 for _ in range(input_num)]).reshape((-1,1))

2020-06-01 21:44:06 149

原创 《The Graph Neural Network Model 》

《The Graph Neural Network Model 》AbstractAbstractAbstractIntroductionIntroductionIntroductionThe Graph Neural Network ModelThe\ Graph\ Neural\ Network\ ModelThe Graph Neural Network Model符号A. The Model[Banach′s 

2020-05-28 11:15:15 1266

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除