原型网络2017:《Prototypical Networks for Few-shot Learning》论文笔记

原型网络(Prototypical Networks)

1. 主要思想

  把样本空间投影(嵌入到一个低维空间),利用样本在低维空间的相似度做分类。类似k-means聚类算法,在低维空间中找到每个分类的聚类中心。 用距离函数测新的样本的分类。

2. 模型

在这里插入图片描述

样本: K个分类,每个类 N 个样本。
   把N分成 NS 和 NQN=NS+NQ)。
   对应的样本集合分别记为 Sk 支持集( support examples)和 Qk 查询集(query examples)。
在这里插入图片描述

低维映射: 神经网络函数fφ(x)把样本x映射到嵌入空间。
在这里插入图片描述

每个类的聚类中心(原型):
在这里插入图片描述
  利用支持集的样本,在嵌入空间中得到第k个类的聚类中心,即支持集第k类样本的平均值。这个中心称为第k类的原型。

目标函数:

  (1) 距离函数:给出在嵌入空间的距离函数。

在这里插入图片描述

  (2) 刻画样本x属于哪个类:
在这里插入图片描述
  在知道每类样本的聚类中心后,我们就可以刻画一个样本x属于哪个类,用距离函数和softmax函数表示。x属于第k个分类的概率如上图。

  (3) 求网络fφ(x)的参数 φ 用到的目标函数 J:
  已知样本x对应的第k类:
在这里插入图片描述
在这里插入图片描述
  随机梯度下降法最小化目标函数:概率的-log值,得到最优参数 φ 。

在这里插入图片描述

3. 算法

在这里插入图片描述
  由 Sk 支持集(support examples)的 NS 个样本来确定每个类的聚类中心。
  用 Qk 查询集(query examples)的 NQ 个样本计算目标(损失)函数 J
  这里没有用全部的 K 个类,而是只用了 NC 个类 ( NC ≤ K ) 。
在这里插入图片描述

注意:
在这里插入图片描述

  得到损失函数 J 后,用随机梯度下降法更新嵌入函数的参数 φ。

  后文用了regular Bregman divergences距离函数和混合密度分布,还用欧氏距离将原型网络解释为线性模型。
在这里插入图片描述

4. 少样本和零样本学习

  零样本学习不同于少样本学习,其聚类中心 ck 不是由支持集样本生成的,而是直接给出了元数据(meta-data)样本向量 vk (可以由原始数据等生成),再由 vk 单独嵌入生成 ck 。详见下图:
在这里插入图片描述
在这里插入图片描述

5. 实验

  N-way K-shot:N个类,每个类K个样本

(1) 数据集Omniglot上少样本分类

在这里插入图片描述
在这里插入图片描述

(2) 数据集miniImageNet上少样本分类

在这里插入图片描述

在这里插入图片描述

(3) 数据集CUB上零样本分类

在这里插入图片描述

在这里插入图片描述

论文链接: Prototypical Networks for Few-shot Learning

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值