![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GNN-graph-level
文章平均质量分 71
Complicated__76
master,GNN learning, contrastive learning, unspervised learning for graphs
展开
-
WWW22 :SimGRACE: A Simple Framework for Graph Contrastive Learning without Data Augmentation
对encoder aug原创 2022-10-29 21:06:58 · 553 阅读 · 0 评论 -
ICLR20: Pre-GNN STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS
图级预训练 迁移学习原创 2022-10-29 17:04:54 · 367 阅读 · 0 评论 -
NIPS21 AD-GCL: Adversarial Graph Augmentation to Improve Graph Contrastive Learning
图级原创 2022-10-29 15:34:42 · 726 阅读 · 0 评论 -
IJCAI 21 :Graph Debiased Contrastive Learning with Joint Representation Clustering
文章信息摘要联合聚类+表征学习,基于 无偏采样 减少 对比学习中 负样本的 假阳性(即,负样本,可能和正样本有相同的类别)介绍假阳性问题:在负采样中的存在,导致 采样出的负样本和 正样本节点相同标签导致 被当作负样本,影响性能。related workGAE DGI等方法1.对比学习对比学习未考虑类间信息,故之后采用 伪标签 聚类来联合优化2 DEC的框架3.无偏采样:在得到精确的聚类结果后,我们可以从聚类中随机选择不同于正样本聚类的负样本。这样,聚类结果可以作为监测信号,有效原创 2022-04-02 14:07:08 · 1304 阅读 · 0 评论 -
ICML21 : Self-supervised Graph-level Representation Learning with Local and Global Structure 上交
监督/自监督的全图表示学习,这在药物和材料发现中的分子性质预测等许多任务中都是至关重要的。现有的方法主要集中在保留不同图实例之间的局部相似性结构上,但没有发现整个数据集的全局语义结构。提出了一个统一的框架,称为局部实例和全局语义学习(GraphLoG),用于自监督的全图表示学习。具体来说,除了保留局部相似性外,GraphLoG还引入了分层原型来捕获全局语义集群。进一步开发了一种有效的在线期望最大化(EM)算法来学习该模型。我们通过对GraphLoG进行预训练,然后对下游任务进行微调。原创 2022-03-28 17:14:42 · 1300 阅读 · 0 评论 -
ICASSP 21 graph clustering 大连理工
多图聚类---graph level 上的工作三个模块: FT GE EC +一个对比损失多图卷积 实质上就是 GCN ,把每层的表征拼接, 对node每一维采用了max pooling 获得图级表征。K是一个图核函数 说是通过XA计算, W是 一个特征转化矩阵,还是拼接H个图表征前面两次都是 GCN形式的embed 这里加入一个K-means的目标函数,聚类生成的伪标签作为ground-truth,和mlp的softmax生成的输出形...原创 2022-03-21 12:35:34 · 920 阅读 · 0 评论