![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GNN-SSL learning
文章平均质量分 70
Complicated__76
master,GNN learning, contrastive learning, unspervised learning for graphs
展开
-
NeurIPS22: Contrastive Graph Structure Learning via Information Bottleneck for Recommendation
自监督推荐 information bottleneck原创 2023-02-02 16:41:35 · 858 阅读 · 0 评论 -
NeurIPS 2022: S3GC 可扩展图聚类
图聚类,图对比学习,采样原创 2023-01-13 16:06:40 · 485 阅读 · 5 评论 -
NIPS22:SpCo Revisiting Graph Contrastive Learning from the Perspective of Graph Spectrum
SpCo。 从谱角度分析 图增强原创 2022-10-30 10:41:18 · 352 阅读 · 0 评论 -
WWW22 :SimGRACE: A Simple Framework for Graph Contrastive Learning without Data Augmentation
对encoder aug原创 2022-10-29 21:06:58 · 559 阅读 · 0 评论 -
NIPS21 AD-GCL: Adversarial Graph Augmentation to Improve Graph Contrastive Learning
图级原创 2022-10-29 15:34:42 · 734 阅读 · 0 评论 -
CVPR2020: DBGAN Distribution-induced Bidirectional Generative Adversarial Network for GRL
GAN + GNN +DBGAN +DPP原创 2022-10-28 20:35:47 · 675 阅读 · 0 评论 -
22 CIKM AdaGCL: Adaptive Subgraph Contrastive Learning to Generalize Large-scale Graph Training
子图采样 图对比学习原创 2022-10-26 11:17:40 · 477 阅读 · 1 评论 -
ICLR22 VICReg VARIANCE-INVARIANCE-COVARIANCE REGULARIZATION FOR SELF-SUPERVISED LEARNING
对比学习cv。 Barlow twins后续工作原创 2022-10-25 14:59:54 · 456 阅读 · 0 评论 -
ICLR 21 BGRL, NIPS21 CCA-SSG, KBS22 GBT丢弃 负样本的图对比学习
不采用负样本的 图对比学习原创 2022-10-23 13:38:58 · 670 阅读 · 0 评论 -
BGRL pyg环境安装
PyG的安装, sparse包无限等待原创 2022-10-22 14:09:26 · 616 阅读 · 0 评论 -
22KDD : COSTA Covariance-Preserving Feature Augmentation for Graph Contrastive Learning
图对比, 增强视图的方法原创 2022-10-19 23:01:04 · 582 阅读 · 7 评论 -
IJCAI 22 CL-UGRL Multi-view Unsupervised Graph Representation Learning
图机器学习 在GNN里面的部分使用原创 2022-10-19 22:51:31 · 364 阅读 · 0 评论 -
NIPS 21: COLES Contrastive Laplacian Eigenmaps
拉普拉斯降维 图对比原创 2022-10-19 16:35:27 · 266 阅读 · 0 评论 -
MERIT 代码 IJCAI21
EMA, online target encoder, NT-Xent原创 2022-10-18 23:34:27 · 216 阅读 · 0 评论 -
NIPS20: GraphCL Graph Contrastive Learning with Augmentations
试图增强,drop node, egde subgraph, feature mask原创 2022-10-18 22:49:52 · 678 阅读 · 0 评论 -
GCA代码
GCA 自适应视图增强原创 2022-10-18 13:15:28 · 1172 阅读 · 0 评论 -
ICML 2020 Work shop 图对比GRACE
GRACE InfoNCE drop_edge drop_feature原创 2022-10-17 16:56:48 · 487 阅读 · 0 评论 -
MVGRL 代码复现 以及 DGL 安装问题
MVGRL 固定 naive 的 sampling DGL原创 2022-10-16 18:09:03 · 1279 阅读 · 2 评论 -
图对比学习 GMI code study
GMI, Code, InfoMax, GNN原创 2022-10-16 14:53:56 · 734 阅读 · 0 评论 -
21 IJCAI: MERIT Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph Representation
图对比学习, online encoder , 多损失,,,,原创 2022-10-13 22:47:42 · 271 阅读 · 0 评论 -
WWW21 GCA: Graph Contrastive Learning with Adaptive Augmentation
GRACE, adaptive mask, SSL原创 2022-10-13 18:44:08 · 635 阅读 · 0 评论 -
ICML 20 workshop GRACE : Deep Graph Contrastive Representation Learning
GRACE drop edge drop features原创 2022-10-13 16:48:33 · 325 阅读 · 0 评论 -
ICML 20: MVGRL Contrastive Multi-View Representation Learning on Graphs
Difusion SSL graph MVGRL ppr原创 2022-10-12 12:14:36 · 873 阅读 · 0 评论 -
WWW 20 : GMI Graph Representation Learning via Graphical Mutual Information Maximization
SSL 图对比学习 GMI原创 2022-10-11 17:01:42 · 655 阅读 · 0 评论 -
21:Neural Networks FastGAE Scalable graph autoencoders with stochastic subgraph decoding
针对 autoencoder的重构损失,重构邻接矩阵 复杂度 O(n2),因此采用重构子图方法。原创 2022-10-10 12:50:33 · 86 阅读 · 0 评论 -
PyG 使用过程中出现的一些小bug。GAE 的negative_sampling中
PyG negative_sampling GAE coalesce原创 2022-10-01 13:34:25 · 793 阅读 · 0 评论 -
22 TKDE SAGES: Scalable Attributed Graph Embedding with Sampling for Unsupervised Learning
graphsaint DGI GAE原创 2022-09-24 12:02:02 · 373 阅读 · 0 评论 -
2020ICDM: SUBG-Con Sub-graph Contrast for Scalable Self-Supervised Graph Representation Learning &+
subgraph DGI batch self-supervised原创 2022-09-23 18:05:37 · 343 阅读 · 0 评论 -
NIPS 22: GGD Rethinking and Scaling Up Graph Contrastive Learning
DGI variant,, bce loss, Self-supervised graph learning, scalable gnn原创 2022-09-23 11:36:02 · 737 阅读 · 0 评论 -
ICML22 arixv目前:Structural and Semantic Contrastive Learning for Self-supervised Node Representation
文章信息摘要本文是 采用了近几年多个技术来进行 拼接。 包含对比学习,标签传播,原型网络,图扩散方法1. 结构化对比学习通过图扩散,生成多个增强的图,作者利用这种 特征传播和 特征转化解耦的方式 ,并通过多跳来获得全局结构关系就是计算了多个 跳 的对比损失(4),(3)就是NCEloss。 (2)是SGC的形式,解耦。2. 语义对比学习采用原型网络来获取节点的语义关系,如何确定原型的数目至关重要(kmeans等不知道最优的k)作者首先说引入DPMM(迪利克雷处理混合模型)假设节点原创 2022-04-14 23:40:07 · 498 阅读 · 1 评论 -
IJCAI 21 :Graph Debiased Contrastive Learning with Joint Representation Clustering
文章信息摘要联合聚类+表征学习,基于 无偏采样 减少 对比学习中 负样本的 假阳性(即,负样本,可能和正样本有相同的类别)介绍假阳性问题:在负采样中的存在,导致 采样出的负样本和 正样本节点相同标签导致 被当作负样本,影响性能。related workGAE DGI等方法1.对比学习对比学习未考虑类间信息,故之后采用 伪标签 聚类来联合优化2 DEC的框架3.无偏采样:在得到精确的聚类结果后,我们可以从聚类中随机选择不同于正样本聚类的负样本。这样,聚类结果可以作为监测信号,有效原创 2022-04-02 14:07:08 · 1323 阅读 · 0 评论 -
ICML21 : Self-supervised Graph-level Representation Learning with Local and Global Structure 上交
监督/自监督的全图表示学习,这在药物和材料发现中的分子性质预测等许多任务中都是至关重要的。现有的方法主要集中在保留不同图实例之间的局部相似性结构上,但没有发现整个数据集的全局语义结构。提出了一个统一的框架,称为局部实例和全局语义学习(GraphLoG),用于自监督的全图表示学习。具体来说,除了保留局部相似性外,GraphLoG还引入了分层原型来捕获全局语义集群。进一步开发了一种有效的在线期望最大化(EM)算法来学习该模型。我们通过对GraphLoG进行预训练,然后对下游任务进行微调。原创 2022-03-28 17:14:42 · 1305 阅读 · 0 评论 -
KDD 20 :SCE: Scalable Network Embedding from Sparsest Cut 复旦基于切图的无监督SSL
文章信息摘要提出了无监督网络嵌入只使用负样本进行训练。我们的方法是基于一个新的对比目标,启发到著名的最稀疏割问题。为了解决潜在的优化问题,我们引入了一个拉普拉斯平滑技巧,它使用图卷积算子作为低通滤波器来平滑节点表示。所得到的模型由一个作为编码器的GCN型结构和一个简单的损失函数组成。值得注意的是,我们的模型没有使用正样本,而只使用负样本进行训练,这不仅使实现和调优变得更加容易,而且还显著减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。结果清楚地表明,与Graphsage、G2G和DGI等原创 2022-03-28 12:34:31 · 566 阅读 · 0 评论 -
ICLR 22 GIANT ,UIUC UCLA OGB榜单
SSL学习 ,raw-text feature extraction, 预训练原创 2022-03-23 14:12:06 · 546 阅读 · 0 评论 -
PAKDD 21: GRAPH INFOCLUST 明尼苏达
GNN, mutual information, GIC原创 2022-03-23 13:46:28 · 248 阅读 · 2 评论 -
AAAI 2022 Simple Unsupervised Graph Representation Learning 成电
本文将 MLP 引入到对比学习, 由于2021年mlp能用到scalable graph learning,因此 MLP学到X的embedding能够更好的解决 可扩展性问题, DGI GMI GCA MVGRL GRACE GIC等方法都是扩展性较差,且latent dim 一般都取512, 这篇文章算是 novel的一篇对比学习,1:不是通过各种顶会上的negative sampling方法来获得负样本 ; 2:不是通过鉴别器来打分,而是通过一个triplet loss 辅助 upper bond来..原创 2022-03-22 13:08:45 · 1698 阅读 · 2 评论 -
ICLR22 自监督graph learning------------AUTOMATED SELF-SUPERVISED LEARNING FORGRAPHS--- 密歇根州立
本文是 如何 学得 多个不同自监督任务的 权重,自动学习, 从同质性假设推断, 好的embedding 其同质性更强, 同质性作为自监督的任务,理论依据:最大化同质性==最大化标签之间的互信息,提出基于进化和 基于元学习的 方法。 本文 不同学习权重的方法 可以借鉴,此外 将homo在学习表征过程考虑,对同质图有用。实验和 GDI MVGRL一样 一层encoder node classfication node clustering...原创 2022-03-21 16:31:24 · 451 阅读 · 0 评论