图
文章平均质量分 73
ptxx_p
这个作者很懒,什么都没留下…
展开
-
《graph self- supervised learning:a survey》论文阅读
2022.5.5 天气晴。《graph self- supervised learning:a survey》一、介绍二、重要定义三、框架与分类3.1 框架定义3.2 图自监督学习的四种分类3.3 自监督训练策略的分类3.4 下游任务的分类四、generation-based methods4.1 feature generation4.2 structure generation一、介绍图上的深度学习多数关注于半监督学习/监督学习,但是对标签具有很严重的依赖性、泛化能力弱、鲁棒性弱,所以SSL(自监原创 2022-05-06 21:38:36 · 679 阅读 · 1 评论 -
《subgraph federated learning with missing neighbor generation》论文阅读
写作日期:2022.4.25。 天气:下大雨。2021 NeurIPS。《subgraph federated learning with missing neighbor generation》论文阅读1.提出动机2.挑战+解决思路3.具体解决方案3.1 FedSage3.1.1 分布在局部系统内的子图3.1.2 在独立的子图上进行协同学习3.2 FedSage+4.实验5.我的思考1.提出动机一个大图由于存储或者是隐私问题等存储在不同的子图中,如何在不共享子图之间信息的情况下训练一个好的可以综合原创 2022-04-27 10:03:19 · 864 阅读 · 0 评论 -
手写论文笔记(一):fastGCN
原创 2022-04-14 19:34:03 · 394 阅读 · 0 评论 -
deep graph infomax代码阅读总结
ICLR 2019。ps:我觉得论文看method看不大懂,不如直接去看代码最清楚。1.一种无监督的训练方式,核心:最大化互信息。(全图的信息与正样本局部信息最大化,全图的信息与负样本局部信息最小化。)2.大致流程:通过最大化互信息训练图嵌入结果(无监督),训练线性分类器(有监督)完成图分类任务。3.DGI定义:class DGI(nn.Module): # ft_size, hid_units, nonlinearity def __init__(self, n_in, n_h,原创 2022-04-07 22:04:33 · 1344 阅读 · 0 评论 -
《deep graph infomax》论文阅读
deep graph infomaxabstract1.introduction2.related work3.DGI methodology3.1 基于图的无监督学习abstract本文提出了deep graph infomax(DGI),通过无监督的方式来在图结构中学习结点表示的通用方法。DGI依赖于最大化patch representation和相关的high-level summaries of graphs之间的互信息(两者都是通过建立的图卷积网络架构得到的)。学习到的patch repres转载 2021-11-22 10:51:02 · 372 阅读 · 0 评论 -
《ROTATE: KNOWLEDGE GRAPH EMBEDDING BY RELATIONAL ROTATION IN COMPLEX SPACE》论文阅读
发表于ICLR 2019。ROTATE: KNOWLEDGE G RAPH E MBEDDING BY R ELA- TIONAL ROTATION IN COMPLEX S PACEabstract1.introduction2.related work3.RotatE:relational rotation in complex vector space3.1 modeling and inferring relation patterns3.2 modeling relations as rotat原创 2021-10-25 17:52:51 · 714 阅读 · 0 评论 -
graph embedding 总结(持续更新)
解决的问题方法简要思路链接预测问题:如何同时建模三种关系模式(对称性/不对称性,反转,组成)RotatE(ICLR 2019)centered 文本居中原创 2021-10-25 10:25:21 · 145 阅读 · 0 评论 -
《learning graph embedding with adversarial training methods》论文阅读
learning graph embedding with adversarial training methodsabstract1. introduction4.proposed algorithm4.1 graph convolutional autoencoder发表于IEEE T CYBERNETICS 2020.abstract众多的图嵌入任务关注于保存图结构或者最小化图数据上的重构损失。这些方法忽略了latent code的embedding distribution,可能会导致许多情况原创 2021-10-24 22:04:28 · 485 阅读 · 0 评论 -
《knowledge graph embedding:a survey of approaches and applications》论文阅读
发表于TKDE 2017。knowledge graph embedding:a survey of approaches and applicationsabstract1. introduction2. notations3. KG embedding with facts alone3.1 translational distance models3.1.1 TransE and Its Extensions3.1.2 gaussian embeddings3.1.3 other distance原创 2021-10-18 12:09:30 · 737 阅读 · 0 评论 -
《InteractE》论文阅读
InteractE: Improving Convolution-based Knowledge Graph Embeddingsby Increasing Feature Interactionsabstract1.introduction二级目录三级目录by Increasing Feature Interactions)abstract众多的知识图(knowledge graphs)suffer from不完整性(incompleteness),可以通过在known facts上进行缺失lin原创 2021-10-14 19:51:28 · 1285 阅读 · 0 评论 -
《HOW POWERFUL ARE GRAPH NEURAL NETWORKS?》论文阅读
发表于ICLR 2019.HOW POWERFUL ARE GRAPH NEURAL NETWORKS?abstract1.introduction2.preliminaries3.theoretical framework:overview4.building powerful graph neural networksabstract尽管GNN彻底改变了图表示学习,但是在表示属性上存在限制。我们提出了一个理论框架来分析捕捉不同的图结构的GNNs的表达能力。我们的结果展示了GNN变体的分辨能力,例如原创 2021-09-25 17:29:32 · 337 阅读 · 0 评论 -
《Inductive Representation Learning on Large Graphs》论文阅读(GraphSAGE)
Inductive Representation Learning on Large Graphsabstract1.introduction3.proposed method:GraphSAGE3.1 embedding generation(forward propagation)algorithm3.1.1 relation to the Weisfeiler-Lehman Isomorphism Test3.1.2 neighborhood definition3.2 learning the pa原创 2021-09-17 18:23:39 · 504 阅读 · 0 评论 -
《a new model for learning in graph domains》论文阅读(GNN开篇之作)
a new model for learning in graph domainsabstract1.introduction三级目录本文应该算是GNN的最开始的提出文章。如果有错欢迎指出,谢谢!发表于2005 IEEE International Joint Conference on Neural Networks(IJCNN 2005) 。abstract生活中的很多应用信息都需要用图进行表示。传统的方法通过预处理的方式来处理图结构,将图转换成线性向量的形式。但是将会损失重要的拓扑信息并且结果原创 2021-09-17 08:25:01 · 1059 阅读 · 0 评论 -
《graph convolutional neural networks for web-scale recommender systems》论文阅读
graph convolutional neural networks for web-scale recommender systemsabstract1.introduction2.related work3.method3.1 problem setup3.2 model architecture二级目录三级目录发表于KDD 2018。abstract本文提出了一种数据高效的图卷积网络算法PinSage,同时组合了高效的随机游走以及图卷积来生成节点的embeddings(同时综合了图结构以及节点原创 2021-09-12 19:33:02 · 262 阅读 · 0 评论 -
《graph neural networks for social recommendation》论文阅读
graph neural networks for social recommendationabstract1.introduction2.the proposed framework2.1 definitions and notations2.2 an overview of the proposed framework2.3 user modeling2.4 item modeling2.5 rating prediction2.6 model training发表于www’19。abstract原创 2021-09-09 21:07:24 · 574 阅读 · 0 评论 -
GNN模型发展对比(持续更新)
原创 2021-09-04 22:11:55 · 261 阅读 · 0 评论 -
《diffusion-convolutional neural networks》论文阅读
abstract本文提出了针对于图结构数据的模型:diffusion-convolutional neural networks(DCNN)。本文展示了如何通过图结构数据学习到基于传播的数据并被有效用于节点分类。DCNN有很多优秀的特质:图结构的潜在表征在同构的情况下是不变的,计算过程可以被视为可以在多项式时间下完成的向量操作,并能够被有效扩展到GPU之上。通过实验证明,DCNNs在关系节点分类任务上超越了概率关系模型以及图上的核方法。1.introduction处理结构数据很具有挑战性。一方面,如果原创 2021-09-04 21:49:40 · 1012 阅读 · 0 评论 -
convolutional networks on graphs for learning molecular fingerprints(分子指纹,可以理解为每个分子的embdding) 论文阅读
这里写目录标题abstract二级目录三级目录abstract本文提出了一种图神经网络。允许任意大小和形状的图作为输入,实现了端到端的学习预测。本文推广了基于指纹的标准的分子特征挖掘方法。这种数据驱动的特征具有更好的解释性,在各种任务上也具有更好的预测性能。二级目录三级目录...原创 2021-09-03 09:32:34 · 826 阅读 · 0 评论 -
Graph neural networks: A review of methods and applications论文阅读
1原创 2021-09-01 21:04:50 · 199 阅读 · 0 评论 -
《AAAI 2021 Beyond Low-frequency Information in Graph Convolutional Networks》论文阅读
转载链接转载 2021-08-02 18:40:48 · 200 阅读 · 0 评论 -
《spectral collaborative filtering》论文阅读
《spectral collaborative filtering》阅读笔记问题引入+解决思路模型实验结果(比较隐式推荐结果)个人思考文章来自recsys 2018.论文链接问题引入+解决思路1.问题:解决cf中的冷启动问题。2.解决思路:解决冷启动的关键是:connectivity information。一般认为协同过滤方法,分为:model-based以及memory based(其实就是item-based+user-based)。model-based方法往往只能挖掘直接connec原创 2021-08-01 14:34:20 · 253 阅读 · 0 评论 -
Adaptive Graph Encoder for Attributed Graph Embedding 论文阅读
1.abstract属性图嵌入通过对图结构和结点特征的学习来学习向量表示。现存的基于gcn的方法主要存在以下三个问题:1.图卷积核和权重矩阵的关联会影响模型的表现和鲁棒性。2.现在使用的图卷积核是一种通用图卷积的特例,但是没有保存最优低通属性。3.现在的训练过程通常需要邻接矩阵或特征矩阵,在现实应用中不一致(?).本文提出Adaptive Graph Encoder(AGE):使用了更好的拉普拉斯卷积核来减轻高频噪声,使用adaptive encoder获得更好的结点嵌入。...转载 2021-07-31 16:34:38 · 168 阅读 · 0 评论 -
图深度学习(deep learning on graphs)第六章第一节阅读笔记
CHAP 6 ROBUST GNN原创 2021-07-27 14:30:55 · 321 阅读 · 0 评论 -
图深度学习(deep learning on graphs)第五章阅读笔记
Graph Neural Networks一、introductionGNN将深度神经网络应用到图结构上去。GNN可以大致被用于解决node-focused 和graph-focused tasks。对于node-focused task,GNN更注重于学习每个节点的良好的特征,对于graph-focused task,GNN更注重于全图的表示学习。GNN学习节点特征的过程可能会影响到节点特征以及图的结构。将input为节点特征和图结构,output为新的节点的特征的过程简要概括为图卷积操作(graph原创 2021-07-23 19:06:19 · 513 阅读 · 1 评论 -
图深度学习(deep learning on graphs)第四章第三部分(4.3)阅读笔记
复杂图上的图嵌入原创 2021-07-23 15:32:19 · 424 阅读 · 0 评论 -
图深度学习(deep learning on graphs)第四章第二部分(4.2)阅读笔记
说明之前写的文章的序号混乱,目前作规定标题优先级定位如下:一、1、(1)、<1>。二、preserving structural rolestruc2vec是一种保持结构相似度的图嵌入方法,与deep walk的mapping function以及reconstructor function一致,下面只对它的extractor进行介绍。1、measuring structural role similarity 测量结构相似度结构相似度定义:...原创 2021-07-20 21:16:46 · 723 阅读 · 0 评论 -
图深度学习(deep learning on graphs)第四章第一部分(4.1)阅读笔记
Chap 4 :Graph Embedding1.图嵌入的整个框架框架包含四个部分:(1)mapping function:将节点从graph domain映射到embedding domain。(2)information extractor:从graph domain中提取出想要的key information III。(3) reconstructor:从embedding domain中重构出图information I′I'I′。(4)objective:基于重构信息I′I'I′和挖掘原创 2021-07-19 20:17:18 · 359 阅读 · 1 评论 -
图深度学习(deep learning on graphs)第三章阅读笔记
Chap 3 深度学习基础LeakyRelu和ELU等的RELU的提出目的是:解决RELU的输出值为负数的神经元无法进行梯度更新。sigmoid和hyperbolic tangent(双曲正切)存在饱和现象,在过小的输出值或者是过大的输出值上的梯度几乎为0,梯度训练困难。sigmoid将值映射到(0,1),双曲正切将值映射到(-1,1)回归任务中希望输出为连续值,因此输出层直接采用仿射变换(线性变换),损失函数使用简单的平方差函数。分类任务(二分类/多分类)://对于二分类,最后原创 2021-07-18 20:15:57 · 301 阅读 · 2 评论 -
图深度学习(deep learning on graphs)第二章第二部分(2.2)阅读笔记
1. 拉普拉斯矩阵(laplacian matrix):是图的另外一种矩阵表示(除邻接矩阵以外)定义:L=D−AL=D-AL=D−A,DDD为图的度对角线矩阵。归一化拉普拉斯矩阵定义: L=D−12(D−A)D−12=I−D−12AD−12.L=D^{-\frac{1}{2}}(D-A)D^{-\frac{1}{2}}=I-D^{-\frac{1}{2}}AD^{-\frac{1}{2}}.L=D−21(D−A)D−21=I−D−21AD−21. 设fff为一个向量,f[i]f[i原创 2021-07-17 15:30:53 · 238 阅读 · 0 评论 -
图深度学习(deep learning on graphs)第二章第一部分(2.1)阅读笔记
Chap 2 : 图基础图表示:本次focus简单无向图。一些定义:图(图的大小由节点数目决定,图可以用邻接矩阵等价代替,它描述了节点之间的关联性);邻接矩阵(矩阵的元素值为0 or 1);度;邻居;连通性;walk(指节点和边的交替序列,以节点开始、以节点结束,walk的长度是指经过边的数目);trail(walk上的边只出现一次);path(walk上的节点只经过一次);子图;连通分量;连通图(图上只有一个连通分量);最短路径(最短路径不止一条,最短路径反映了图上最重要的属性信息);直径(图原创 2021-07-16 19:13:24 · 233 阅读 · 0 评论