「CVPR2020」分布传播图网络的小样本学习

点击蓝字,设为星标

本文来自知乎作者@「周大侠」,点击阅读原文可直达作者知乎首页。

「CVPR2020」:Distribution Propagation GNN for FSL

DPGN:Distribution Propagation Graph Network for Few-shot Learning

此图来自guodong's blog:https://52zju.cn/?p=187212
摘要

目前大部分基于GNNs的元学习方法对实例级(instance-level)关系进行建模。本文扩展了此思想,用1-vs-N的方式将一个实例与所有其他实例对应的分布级(distribution-level)关系进行建模,提出了 distribution propagation graph network (DPGN)方法用于小样本学习。该方法同时利用了实例级(instance-level)关系和分布级(distribution-level )关系。构造了一个由一个点图( point graph)和一个分布图( distribution graph)组成的对偶完全图网络(dual complete graph network),其中每个节点代表一个实例。大量的实验表明DPGN能取得SOTA性能。原文和代码链接如下:

原文:
https://arxiv.org/pdf/2003.14247
代码:
https://github.com/megvii-research/DPGN

Introduction

小样本学习(FSL)任务的目的是在给定少量标记数据(support set)的条件下,预测出未标记数据(query set)的标签。其中Fine-tuning容易导致过拟合;GNN类的方法关注于节点对之间的关系,而忽略了重要的分布关系;元学习的方法也没有直接利用整体关系(global relations)。

如图一所示,首先提取样本的 instance feature,然后通过计算样本之间的instance-level相似性得到distribution feature。为了能同时利用两种feature,提出了一种 dual-graph架构:点图( point graph,PG)和分布图( distribution graph,DG)。特别的,一个PG通过聚集每个节点的1-vs-n关系来产生一个DG;而DG通过传递每一对实例间的分布关系来调整PG。这种循环转换充分融合了实例级和分布级关系。该方法主要贡献如下:

  1. DPGN是第一个显示的利用分布传播的GNN方法,用于解决FSL问题

  2. 提出 dual complete graph network,同时利用实例级(instance-level)关系和分布级(distribution-level )关系

  3. 大量的实验表明DPGN能取得SOTA性能

Method
Distribution Propagation Graph Networks

图2展示了模型的主要过程。DPGN包含l轮的更新(generations),每一次更新包括一个点图(PG)和分布图(DG)

1. 首先通过convolutional backbone提出样本特征利,用于计算 instance similarities 

2. 利用来构建分布图。节点特征通过聚合来进行初始化,边特征表示节点特征之间的分布相似度

3. 最后,取得的被送到用于构建更具判别性的节点表征

通过不断重复上述过程。上述循环过程可以总结成如下:其中代表第l轮的更新,是由feature extractor得到的节点初始特征:

Point-to-Distribution Aggregation

「Point Similarity」点图中边表示样本之间的相似度,其初始化如下:

其中是由两个Conv-BN-ReLU blocks构成。对于的情况,更新方式如下:

「P2D Aggregation」如图3所示,的目的在于从点图中整合实例关系,以及处理 the distribution-level关系。其中每一个分布特征是一个NK维的向量,第j维的值表示样本i和j之间的关系;NK是support samples的数量。DP节点初始化为:其中为Kronecker delta function,当时输出1;否则输出0。对于的情况,的更新方式如下:其中P2D是用于分布图的聚合网络,由一层全连接层和ReLU构成。

Distribution-to-Point Aggregation

「Distribution Similarity」 在分布图中,每条边代表样本分布特征之间的相似度。对于l=0,初始化如下所示:其中encoding网络由两层 Conv-BN-ReLU blocks构成。对于的更新方式如下:「D2P Aggregation」如图3

如图3所示,在每轮的更新结束时,在中的分布信息又会被聚集到point graph 中。然后点图中的节点特征通过聚集所有节点特征和边特征来获取分布关系:其中D2P由两层 Conv-BN-ReLU blocks构成。此过程结束后,节点特征能够整合分布级信息到实例级信息中去,为下一次更新中计算实例间相似度做准备。

Objective

节点分类的通过将DPGN最后一次更新的边特征输入到softmax函数:其中y_j表示在support set上的第j个样本,e_{l,ij}^p表示在点图上最后一轮的边特征。

「Point Loss」该损失直接使用就是交叉熵:其中就是交叉熵,y_i是x_i的真实标签

「Distribution Loss」为了加快训练过程以及能学习到有判别力的特征,定义了分布损失如下:「Total objective function」由每一层的两种损失函数组合而成:其中都是权重参数,在实验中取值分别为

Experiments

主要用了4个数据集,其具体数据集介绍和实验设置请查看原始论文。从结果可以看到,提出的DPGN方法确实是比较好的,达到了state-of-the-art的性能,同时领先的幅度是比较大的。

Personal Thoughts

「优点:」
首次提出利用了分布传播的GNN方法,方法比较新颖 同时了利用实例级(instance-level)关系和分布级(distribution-level )关系 实验部分非常充足,证明该算法能达到SOTA 同时也做了大量的消融实验,证明提出的分布传播是有效的

「Comments:」
个人感觉现在基于GNNs方法越来越复杂,更开始侧重更高级的表征,例如distribution-level,这种global的特征是非常重要的

往期精彩内容推荐

图神经网络资源大集合~快来打包带走

「NeurIPS 2020」基于局部子图的图元学习

球分享

球点赞

球在看

点击下方“阅读原文”直达作者知乎首页

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值