![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
GNN-sampling techniques
文章平均质量分 68
Complicated__76
master,GNN learning, contrastive learning, unspervised learning for graphs
展开
-
NeurIPS 2022: S3GC 可扩展图聚类
图聚类,图对比学习,采样原创 2023-01-13 16:06:40 · 481 阅读 · 5 评论 -
22 CIKM AdaGCL: Adaptive Subgraph Contrastive Learning to Generalize Large-scale Graph Training
子图采样 图对比学习原创 2022-10-26 11:17:40 · 469 阅读 · 1 评论 -
21:Neural Networks FastGAE Scalable graph autoencoders with stochastic subgraph decoding
针对 autoencoder的重构损失,重构邻接矩阵 复杂度 O(n2),因此采用重构子图方法。原创 2022-10-10 12:50:33 · 86 阅读 · 0 评论 -
22 TKDE SAGES: Scalable Attributed Graph Embedding with Sampling for Unsupervised Learning
graphsaint DGI GAE原创 2022-09-24 12:02:02 · 372 阅读 · 0 评论 -
2020ICDM: SUBG-Con Sub-graph Contrast for Scalable Self-Supervised Graph Representation Learning &+
subgraph DGI batch self-supervised原创 2022-09-23 18:05:37 · 343 阅读 · 0 评论 -
ICLR22: EXACT: Scalable Graph Neural Networks Training via Extreme Activation Compression
可扩展图方向的文章, 是 通过修改 字节 存储 来进行 高效训练原创 2022-06-08 11:12:07 · 197 阅读 · 0 评论 -
ICASSP21 Non-RecursiveGCN 一种layer-wise采样 北航 阿里
本文阐述了GraphSAGE的问题,NRGCN的框架:不同于JKnet把 每一层的表征进行拼接, 本文拼接了 直接从某跳的邻居表征,原因是说JKnet那样的h是已经被mixed和计算了多次这样的直接某跳做法 之前也见过,但并未成为主流,后面远的跳数,只是很远的邻居,这样真的对于emeddding 有意义吗?该文章这样是从 复杂性角度考虑,这样每一层的表征就独立于前一层,不用算了前面的才算当前这一层,这样所有层都可以被precomputed,有点sign那种,sign是通过对邻接矩阵的幂从原创 2022-03-21 11:55:17 · 221 阅读 · 0 评论