GNN- few shot
文章平均质量分 84
Complicated__76
master,GNN learning, contrastive learning, unspervised learning for graphs
展开
-
CIKM 2020: Graph Few-shot Learning with Attribute Matching
文章信息摘要虽然最近的一些研究试图将金属收入与图神经网络使少学习归属网络,在元训练阶段创建不同的任务时,它们没有考虑到属性网络的独特属性——不同任务的特征分布可能非常不同,因为实例(即节点)不遵循数据i.i.d.对属性网络的假设。因此,它可能不可避免地导致元测试阶段的次优性能。为了解决上述问题,我们提出了一种新的图元学习框架——属性匹配元学习图神经网络(AMM-GNN)。具体来说,提出的AMM-GNN利用属性级的注意机制来捕获每个任务的不同信息,从而学习更有效的可转移知识进行元学习。我们在广泛的设置下原创 2022-04-05 20:10:40 · 747 阅读 · 1 评论 -
AAAI20:Multi-Stage Self-Supervised Learning for GCNs on Graphs with Few Labeled Nodes
文章信息摘要本文是在Deeper insight 一文上的改进, 采用了多次扩充。 同时采用Deeplcluster来进行自监督方法1.扩充数据集 多阶段训练和18aaai那篇一样, 这里采用了k个阶段 多次增加。没有采用随机游走的加,只采用gcn的softmax进行选择topk2. DeepclusterDeepCluster,它将由ConvNetF产生的一组嵌入向量作为输入,并根据几何准则将它们分成k个不同的聚类。更具体地说,DeepCluster通过解决以下问题,共同学习一个×质心原创 2022-04-05 13:33:31 · 833 阅读 · 0 评论 -
AAAI18 : Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning
文章信息摘要本文中,我们对GCN模型有了更深入的见解,并解决了其基本限制。首先,我们证明了GCN模型的图卷积实际上是一种特殊的拉普拉斯平滑形式,这是GCNs工作的关键原因,但它也带来了许多卷积层的过平滑的潜在问题。其次,为了克服具有浅层架构的GCN模型的局限性,我们提出了协同训练和自我训练的方法来训练gcn。我们的方法显著地提高了gcn在学习中很少的标签,并免除了它们需要额外的标签进行验证。大量的基准测试实验已经验证了我们的理论和建议。1. IntroductionGCN模型对半监督学习的工原创 2022-04-05 13:00:03 · 2976 阅读 · 0 评论 -
CIKM 2019 Meta-GNN: On Few-shot Node Classification in Graph Meta-learning
GNN 小样本 阶段train原创 2022-03-24 16:11:12 · 1523 阅读 · 0 评论 -
CIKM 2020 Graph Prototypical Networks for Few-shot Learning on Attributed Networks 小样本图学习
小样本 GNN 原型学习原创 2022-03-24 15:33:49 · 827 阅读 · 4 评论