[2019][cvpr]Edge-Labeling Graph Neural Network for Few-shot Learning 笔记

paper:EGNN paper
code:code and models are available on github
其他人的总结

主要思想就是通过图网络进行信息传播,学出边的信息,也就是节点间相似性和相异性
这篇论文方法不复杂,实现也不难,很有效,值得学习。作者使用了4个NVIDIA Tesla P40 GPUs。我试了一下,由于imagenet图片不大,embedding_size也不大,单个gpu也能跑。

few shot learning

  少样本任务setting是这样的:采用episodic过程进行学习和测试。也就是对于一个N-way, K-shot的任务,一个episode包含了support set 和 query set。

  从全体类别中采样出的N个类别,每个类别包含了K个样本,这NK个样本称为支撑集,记为 S = { ( x i , y i ) } i = 1 N K \mathcal{S} = \{(x_i,y_i)\}_{i = 1}^{NK} S={ (xi,yi)}i=1NK。另外还有 T T T个样本的查询集 Q \mathcal{Q} Q,在训练阶段查询集的label用于计算loss和学习,测试阶段查询集的label是我们要进行预测的。

   训练阶段和测试阶段的类别是不相交的,也就是 C t r a i n ∩ C t e s t = ∅ \mathcal{C}_{train} \cap \mathcal{C}_{test} = \varnothing CtrainCtest=

 当部分support set 不提供label时,称为semi supervised few shot learning.

论文模型

符号定义和特征

G = ( V , E ; T ) \mathcal{G} = (\mathcal{V},\mathcal{E};\mathcal{T}) G=(V,E;T)为一个episode样本 T \mathcal{T} T构建的图, ∣ T ∣ = N K + T |\mathcal{T}| = NK+T T=NK+T, V = { V i } i = 1 , . . . , ∣ T ∣ \mathcal{V}=\{V_i\}_{i = 1,...,|\mathcal{T}|} V={ Vi}i=1,...,T为顶点集, E =

  • 10
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 41
    评论
评论 41
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值