GNN
文章平均质量分 84
soccqy
这个作者很懒,什么都没留下…
展开
-
Graph学习笔记
复杂的图2.1 异构图同构图只有一种节点类型,一种边的类型。异构图即边与节点的类型都不止一种的图。二分图:G={V,E}\mathcal G=\left\{\mathcal V,\mathcal E\right\}G={V,E},节点集V\mathcal VV可以被划分为两类V1\mathcal V_{1}V1,V2\mathcal V_{2}V2,图里的边只存在与这两个集的节点的相互连接。多维图:在许多现实世界的图形中,一对节点之间可以同时存在多个关系。比如电商网站里用户与商品之间的关系可以原创 2021-04-19 00:20:10 · 1192 阅读 · 5 评论 -
阅读笔记--ICML2020--A Generative Model for Molecular Distance Geometry
阅读笔记--ICML2020--A Generative Model for Molecular Distance Geometry原创 2020-12-05 14:30:29 · 231 阅读 · 0 评论 -
阅读笔记-Iterative Refinement in the Continuous Spacefor Non-Autoregressive Neural Machine Translation
阅读笔记-Iterative Refinement in the Continuous Spacefor Non-Autoregressive Neural Machine Translation1、1、原创 2020-10-30 00:39:08 · 572 阅读 · 0 评论 -
阅读笔记-分子图benchmark
阅读笔记-图benchmarkogbn-proteins: Protein-Protein Association Networkogbl-ddi: Drug-Drug Interaction Networkogbl-biokg: Biomedical Knowledge Graphogbn-proteins: Protein-Protein Association Networkogbn-proteins:无向,带权重,多种边类型的图结构。节点代表着蛋白质分子,边表示蛋白质之间不同类型的有生物学意义的原创 2020-10-22 01:09:41 · 2956 阅读 · 0 评论 -
阅读笔记--MolGAN: An implicit generative model for small molecular graphs
Deterministic policy gradients在药物生成中,我们生成的分子,不仅要满足化学定义,而且要有一些有用的性质(比如说易于合成)。而这种目标对于训练过程来说其实是不可微的,所以需要引入强化学习来优化那些不可微的指标的生成过程。生成器作者发现预先选择最大尺寸的图,可以以更快的速度训练,并且也更容易优化。...原创 2020-10-05 23:52:24 · 3570 阅读 · 1 评论 -
阅读笔记-KDD2020-MoFlow: An Invertible Flow Model for Generating Molecular Graphs
阅读笔记-MoFlow: An Invertible Flow Model for Generating Molecular Graphs原创 2020-09-30 23:58:13 · 1725 阅读 · 0 评论 -
阅读笔记-A Graph to Graphs Framework for Retrosynthesis Prediction
A Graph to Graphs Framework for Retrosynthesis Prediction原创 2020-09-29 14:12:38 · 810 阅读 · 0 评论 -
阅读笔记-GRAPHAF:A FLOW-BASED AUTOREGRESSIVE MODEL FOR MOLECULAR GRAPH GENERATION
GRAPHAF:A FLOW-BASED AUTOREGRESSIVE MODEL FOR MOLECULAR GRAPH GENERATION文章链接原创 2020-09-28 00:03:43 · 870 阅读 · 0 评论 -
Efficient learning of nonautoregressive graph variational autoencoders for molecular graphgeneration
阅读笔记Graph Representation Learning–Chapter943/100发布文章tn520520系列文章目录阅读笔记Graph Representation Learning–Chapter2阅读笔记Graph Representation Learning–Chapter3阅读笔记Graph Representation Learning–Chapter4阅读笔记Graph Representation Learning–Chapter5阅读笔记Graph Rep原创 2020-09-27 19:34:09 · 233 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter9
系列文章目录阅读笔记Graph Representation Learning–Chapter2阅读笔记Graph Representation Learning–Chapter3阅读笔记Graph Representation Learning–Chapter4阅读笔记Graph Representation Learning–Chapter5阅读笔记Graph Representation Learning–Chapter6阅读笔记Graph Representation Learning–原创 2020-09-24 00:00:36 · 325 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter8
系列文章目录阅读笔记Graph Representation Learning–2.1阅读笔记Graph Representation Learning–2.2阅读笔记Graph Representation Learning–2.3阅读笔记Graph Representation Learning–Chapter 3阅读笔记Graph Representation Learning–Chapter4阅读笔记Graph Representation Learning–Chapter5阅读笔记G原创 2020-09-23 18:38:50 · 425 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter6
系列文章目录阅读笔记Graph Representation Learning–2.1阅读笔记Graph Representation Learning–2.2阅读笔记Graph Representation Learning–2.3阅读笔记Graph Representation Learning–Chapter 3阅读笔记Graph Representation Learning–Chapter4阅读笔记Graph Representation Learning–Chapter5阅读笔记G原创 2020-09-22 12:44:47 · 402 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter5
系列文章目录阅读笔记Graph Representation Learning–2.1阅读笔记Graph Representation Learning–2.2阅读笔记Graph Representation Learning–2.3阅读笔记Graph Representation Learning–Chapter 3阅读笔记Graph Representation Learning–Chapter4阅读笔记Graph Representation Learning–Chapter5Chapt原创 2020-09-21 19:34:00 · 835 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter4
系列文章目录文章目录系列文章目录Multi-relational Data andKnowledge Graphs概要4.1 Reconstructing multi-relational data4.2 Loss functions4.3 Multi-relational decoders4.3.1 Representational abilitiesMulti-relational Data andKnowledge Graphs概要Knowledge graph completion:我们在本原创 2020-09-19 02:40:34 · 532 阅读 · 0 评论 -
阅读笔记Graph Representation Learning--Chapter3
系列文章目录文章目录系列文章目录Neighborhood Reconstruction Methods3.1 An Encoder-Decoder Perspective3.1.1 The Encoder3.1.2 The Decoder3.1.3&3.1.4 Optimizing an Encoder-Decoder Model & Overview of the Encoder-Decoder Approach3.2 Factorization-based approachesLap原创 2020-09-18 11:41:52 · 545 阅读 · 0 评论 -
阅读笔记Graph Representation Learning–Chapter2
系列文章目录阅读笔记Graph Representation Learning–2.1阅读笔记Graph Representation Learning–2.2阅读笔记Graph Representation Learning–2.3文章目录系列文章目录2.3 Graph Laplacians and Spectral Methods2.3.1 Graph LaplaciansUnnormalized LaplacianNormalized Laplaciansrandom walk Lapl原创 2020-09-17 15:21:58 · 1006 阅读 · 3 评论 -
阅读笔记--DeepWalk:Online Learning of Social Representations
文章目录前言一、方法1.在学习一个网络表示的时候需要注意的几个性质:2.Random Walks3.DeepWalk二、使用步骤1.引入库2.读入数据总结前言图网络表示学习:或图表示学习,也称为图嵌入学习,目的是希望能够将网络中的节点用比较低维的向量去表达,同时在这个向量空间中,网络结构的一些性质仍能保持。在原始图中相似(不同的方法对相似的定义不同)的节点其在低维空间也相近,得到的表征向量可以用来做节点分类,链接预测等下游任务。一、方法1.在学习一个网络表示的时候需要注意的几个性质:适应性:网络原创 2020-09-13 20:32:44 · 170 阅读 · 0 评论 -
阅读笔记--CAN GRAPH NEURAL NETWORKS GO “ONLINE”? AN ANALYSIS OF PRETRAINING AND INFERENCE
文章目录一、介绍概览Inductive learning 与 Transductive learning二、实验设置总结一、介绍概览研究动机:现实应用中,大规模的图数据往往是动态的而不是静态的。新的节点和边会随时出现。而当这种情况发生后,并不容易决定是重新训练模型还是在原有模型的基础上进行训练。作者将经过预训练的GNN和从头再训练的GNN进行了对比,对于新插入的节点和边,经过预训练的GNN性能强于在新插入的节点和边的图数据上进行重新训练的GNN。本文中,作者创建了一个专用实验来评估图神经网络的推理原创 2020-09-01 20:49:09 · 211 阅读 · 0 评论 -
阅读笔记-Pre-Training Graph Neural Networks for Generic Structural Feature Extraction
阅读笔记摘要预训练方法介绍1.Denoising Link Reconstruction2.Centrality Score Ranking图或网络中的中心性3.Cluster Preserving摘要(1)去噪连接重建(2)中心得分排名(3)集群保护预训练方法介绍模型框架如下图所示:1.Denoising Link Reconstruction作者认为一个好的特征提取器应该能够恢复链接,即使它们已经从给定的图中删除,由此提出了这项预训练任务。对于输入的图G,随即删除输入图G中的一些已经存原创 2020-08-30 09:17:00 · 663 阅读 · 0 评论 -
阅读笔记--GraphSAGE
目录一、简介二、GraphSAGE2.1 概览GraphSAGE:Graph Sample and aggreGatE三个步骤:2.2 Embedding的生成Forward propagation:Neighborhood definition2.3 Learning the parameters of GraphSAGE基于图的无监督损失基于图的有监督损失2.4 聚合函数的选择概览Mean aggregatorLSTM aggregatorPooling aggregator三、总结一、简介事实证明原创 2020-08-28 19:52:15 · 596 阅读 · 0 评论 -
阅读笔记-STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS
阅读笔记-STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS策略节点级预训练方法图级别的预训练概览策略节点级预训练方法;图级预训练方法节点级预训练方法CONTEXT PREDICTION(1)用子图来预测其周围的图结构;对于节点v的K-hop neighborhood的定义:以节点v为中心,距离v距离不超过K的节点。而上下文图的定义:设定两个超参数r1,r2,上下文图就是节点v r1 r2之间的子图,如上图所示。有一些节点同时存在于邻域图原创 2020-08-26 11:27:10 · 267 阅读 · 0 评论