自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 图结构表示学习论文合集(GSL)

图结构表示学习文章合集

2022-08-01 16:44:53 1009 1

原创 Explainability in Graph Neural Networks:A Taxonomic Survey 图可解释

typora-root-url: imgExplainability in Graph Neural Networks:A Taxonomic Survey可解释GNN的分类和数据集(句子==>图数据集)对于 GNN 解释性方法,既没有一个统一的处理方法,也没有一个标准的基准测试和测试平台首先,与图像和文本不同,图不是网格状的数据,这意味着没有局部信息,这意味着没有局部信息,每个节点有不同数量的邻居。没有位置信息,只有拓扑信息,且分布不均匀图包含了重要的拓扑信息,并被表示为特征矩阵和邻接.

2022-03-22 14:42:49 4266

原创 GraphSTONE:Graph Structural-topic Neural Network

Graph Structural-topic Neural NetworkGraphSTONE图结构主题神经网络通常GCN的重点更多地放在节点特征上,而很少关注邻域内的图结构,尤其是高阶结构模式.但是局部结构模式显示出在许多领域中节点特性的指示利用图的主题模型的GCN模型,从而使结构性主题从概率方面广泛地捕获指示性图结构,而不仅仅是少数结构把NLP上的主题模型用到Graph上, 这样就关注邻居的图形结构,尤其是更高阶的结构使用匿名游走和Graph Anchor LDA在Graph上建立主题模型,

2021-04-13 15:54:34 788

原创 用PyTorch_Geometric都能踩到什么坑?

用PyTorch_Geometric都能踩到什么坑?最近在打KDD2021,重新安装了下PYGOGB数据的要求是装master版本的PYG找了whl文件安装后发现跑不通baseline出现了如下错误,AttributeError: module ‘torch_geometric.utils’ has no attribute ‘scatter_’pip install torch-geometric==1.4.3尝试把torch-geometric退回到1.4.3版本TypeError:

2021-04-02 20:20:38 711

原创 Deep Graph Contrastive Representation Learning

Deep Graph Contrastive Representation Learning利用节点级别的对比目标最大化两个视图(属性级和结构级)中节点表示的一致性来学习节点表示提高输入节点特征和高级节点嵌入之间的MI主要侧重于对比节点级别的嵌入正负对进行对比,王亮老师组的关于对比学习论文,还有一篇自适应的GCA,模型结构和这篇差不多模型首先从一个图分别用删边和Mask的方法生成,两个视图,对于一个视图内:目标节点与其他节点生成视图内的负样本对,在视图间,目标节点和另一个视图中除了ancho

2021-03-29 10:37:20 987

原创 对比学习正负例在干什么?

对比学习正负例在干什么?原始图片被当作一种anchor,其增强的图片被当作正样本(positive sample),然后其余的图片被当作负样本。解决拼图问题是无监督学习中一个非常重要的部分。在对比学习中,原图被当作anchor,打乱后的图片被当作正样本,其余图片被当作负样本对比学习中的互信息?上下文实例对比度主要有两种类型:预测相对位置(PRP)和最大化互信息(MI)。 它们之间的区别是:• PRP重点学习局部成分之间的相对位置。 全局上下文是预测这些关系的隐含要求(例如了解大象的长相对于预

2021-03-22 19:21:05 5748

原创 Graph Contrastive Learning with Augmentations

Graph Contrastive Learning with Augmentations图增强对比学习孪生网络框架,用于学习数据的无监督学习表示。设计了四种不同的图扩充方法对比学习目的:通过不同扩充视图下最大化特征一致性来学习表示形式。总结基于孪生网络的对比学习,提出了图数据上的增强方式...

2021-03-22 19:14:38 888

原创 Contrastive and Generative Graph Convolutional Networks for Graph-based Semi-Supervised Learning

Contrastive and Generative Graph Convolutional Networks for Graph-based Semi-Supervised Learning以GCN基础的半监督学习,基于图的半监督学习(SSL)旨在通过图将少数标记数据的标签转移到剩余的大量未标记数据。首先,通过设计一个半监督的对比损失,可以通过最大化相同数据的不同视图或同一类数据之间的一致性来产生改进的节点表示,因此,丰富的未标记数据和稀缺而有价值的数据标记数据可以共同提供丰富的监督信息,以学习判别性

2021-03-22 19:12:46 1187

原创 What Should Not Be Contrastive in Contrastive Learning学习笔记

What Should Not Be Contrastive in Contrastive Learning引入了一个对比学习框架,该框架不需要事先特定的,与任务相关的不变性的知识,模型学会捕捉通过构建单独的视觉表示的可变和不变因素嵌入到空间,除了扩充之外,每个空间都是不变的。数据增强的引入是一把双刃剑因为每次数据增强都会增加其中的不变性变多,比如,增加旋转可能会有助于航拍图像识别,但是会大大降低解决其他任务的能力。在不假定下游不变性的先验知识的情况下,在对比性学习框架中捕获个体变化因素的表示不是将

2021-03-22 19:08:51 841 1

原创 InfoGraph: Unsupervised and Semi-supervised Graph-Level Representation Learning via Mutual Informat

InfoGraph: Unsupervised and Semi-supervised Graph-Level Representation Learning via Mutual Information Maximization论文研究在无监督和半监督情况下学习整个图的表示(图级)DGI是节点级的预测最大化图级表示和不同比例的子结构表示(例如节点,边,三角形)之间的相互信息图形级表示就对跨不同比例的子结构共享的数据各方面进行编码分为无监督版InfoGraph和半监督版InfoGraph*许多图

2021-03-22 19:07:34 1902

原创 DEEP GRAPH INFOMAX阅读笔记

DEEP GRAPH INFOMAXDGI是一种无监督方式学习图结构节点表示的通用方法,依赖于最大化局部表示与相应的全局表示之间的互信息。DGI不依赖于随机游走,因为随机游走以图结构信息为目标,过分强调邻近信息,而且依赖于超参数。定义的全局是局部信息的拼接DGI是DIM在图上的应用DIM训练编码器模型,以最大化高级“全局”表示和输入的“局部”(例如图像的补丁)之间的相互信息。 鼓励编码器携带在所有位置都存在的信息类型(因此是全局相关的),例如类别标签的情况。比卷积捕获的结构更加通用对比方法的关键实

2021-03-22 19:03:18 452

原创 Contrastive Multi-View Representation Learning on Graphs阅读笔记

Contrastive Multi-View Representation Learning on Graphs在图上用最大化互信息MI来学习表示,主要延伸GraphInfoMax 和SimSLR,又有孪生网路的结构又用了对比互信息。最大化从图的不同结构视图编码的表示之间的MI来引入自监督方法来训练图编码器。观点将视图数量增加到两个以上不会提高性能,就用两个对比就行通过对比来自一阶邻居的编码和图扩散这两个视图,可以实现最佳性能跨视图对比节点和图的编码能够取得更好的结果与分层图池化方法相比,简

2021-03-22 19:00:42 1208

原创 What Makes for Good Views for Contrastive Learning?阅读笔记

What Makes for Good Views for Contrastive Learning主要对比了几种常见的对比学习,为什么能取得比较好的效果。在保持与下游任务相关的信息的同时,减少视图之间的MI,才能取得比较好的效果。数据增强是一种有效减小不同视图之间的MI的一种方法建立视图不变表示的能力是研究核心对比表示学习的最佳视图是依赖于任务的如果共享信息小,则学习表示可以对输入的详细信息,并实现对多余变量不变的程度更大。提出了三个定义**Sufficient Enco

2021-03-22 18:52:51 934 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除