Siamese Neural Networks for One-shot Image Recognition (孪生神经网络用于 One-Shot 图像识别)

1. 摘要

机器学习应用中学习好的特征的计算开销是非常大的,而且在某些情况下(few-shot learning,可用数据很少)是非常困难的。一个典型的例子就是 one-shot learning,其中必须在只给出每个类的一个样本的情况下,对剩余样本做出正确的预测。本文学习一个孪生神经网络(Siamese Neural Networks),它用它独特的结构自发地对输入的相似性排序。一旦网络学习好了之后,我们就可以利用强有力的辨别功能将我们的预测能力不仅推广泛化到新的数据(新数据的类包含于训练数据中的类),而且可以推广泛化到来自于未知分布的新的类。

(1)新的类;(2)每个类的训练样本只有一个;(3)学习一个网络映射输入空间到新的空间,比较相似度;
这三个特征满足 few-shot learning,meta-learning 的基本特征,而且可以看成属于 meta-learning 中的度量学习 (metric learning)。

(few-shot learning 和 meta-learning 的概述可以参考链接:https://blog.csdn.net/weixin_37589575/article/details/92801610

2. 介绍

人类具有快速获得和识别新模式的能力。特别的,人类在受到刺激的时候可以快速理解新的概念同时可以在未来的识别任务中识别这些概念中的变化。现在的 ML(machine learning) 方法虽然在很多领域取得了成功,但是当被强迫在只有很少的监督信息的情况下做出预测时表现往往会崩塌。我们希望可以在不经过重新训练的情况下,可以很好的推广泛化到新的类别。重新训练可能费时费力,而且在某些场景下根本就无法重新训练。本文的关注点在 one-shot classification 问题上,即仅在每个可能的类别给出一个实例的情况下,对剩余样本进行分类。

One-shot learning 的一种解决方法是开发特定领域相关的特征或者推断过程,它们在目标任务(也是一种特定任务)上具有很好的判别性。这种方法虽然可以在特定领域上取得很好的效果,但是鲁棒性较差,无法用于其他类型的任务。本文对输入假设做了限制(更少的输入假设),而是让模型自动获取能够在少样本任务上成功推广归纳的特征。

3. 方法

总体而言,我们通过一个有监督的、基于度量的、孪生网络结构的方法学习图像的表示,然后将这个网络复用于 one-shot learning(无需重新训练)。

由于本文主要关注于图片 one-shot leanring 任务,因此使用了 Siamese Convolutional Neural Networks(孪生卷积神经网络),特点:

  1. 能够学习对于来自未知分布的新类(每个新类只有一个样本)预测有用的通用的图片特征
  2. 在由源数据成对采样的训练样本上可以使用标准的优化技术很容易地训练。
  3. 不依赖于特定领域的知识,而是使用深度学习技术提供了一种有竞争力的方法。

为了网络可以进行 one-shot classification,我们先学习一个网络可以区分图像对中的类别标识,这是一个标准的验证任务。并且我们假设如果网络在验证任务上表现良好,那么这个网络就可以推广到 one-shot classification 上。这个验证模型根据输入对属于相同类和不同类的概率学习如何识别输入对。学习好的模型可以用于评估新的图片,其中每个新的类恰好只有一个图片示例。测试模型的时候,测试样本也是成对出现的,然后根据验证网络中最高得分对授予最高的概率。

简单的说:训练的时候是验证的模式,成对的输入,然后判断是否属于同一类。测试的时候也是类似的成对的输入,这样成对的输入有很多对,每一对有一个得分,得分就对应于这成对输入属于同一类的概率。得分越高,概率越高。

例如:5-way 1-shot 任务中,每个类别有一个 support 样本(5 * 1 = 5,总共 5 个样本),然后对于每一个 query 样本,和前面 5 个 support 样本做验证比较,最高得分的 support 样本属于的类就是我们预测的类别。(术语定义参考前面连接的博客)

3. 用于图像验证的孪生网络

孪生网络最早用于解决签名验证问题(将签名验证看为一个图像匹配问题)。孪生网络(Siamese Networks)包含一对网络,接收两个输入,最后通过一个顶层的能量函数(Energy Function)连接起来。在这里插入图片描述
这个能量函数计算来自两个输入映射到新空间的某种相似度。两个网络的参数是绑定的(共享的)。权重绑定可以保证两个极其相似的图片不会被映射到空间中特别远的地方。另外还有一点就是两个网络相同,所以对于输入对的顺序来说,同一对不同的顺序的输入至少在 Embedding 这一步是完全没有影响的,如果能量函数也是关于两个输入(一般是)对称的,那么整个网络都是对称的

简单的说,这两个孪生网络其实就是 Embedding 函数,将输入从输入空间映射到 Embedding 空间,而这个能量函数就是用来在新的 Embedding 空间里面计算两个 Embedding 的相似度,然后做出验证。

在《Learning a Similarity Metric Discriminatively, with Application to Face Verification》的博客中提到两种方法在网络结构上很相似,论文也提到了这一点,并且给出了一个主要不同,《Learning a Similarity Metric Discriminatively, with Application to Face Verification》使用了一个对比能量函数,而本文使用了一个两个映射之后的特征向量 h 1 h_{1} h1 h 2 h_{2} h2 加权的 L 1 L_{1} L1 距离,后面接一个 sigmoid 激活函数,将其映射到 0 到 1 之间,因此使用交叉熵作为损失函数

L ( x 1 ( i ) , x 2 ( i ) ) = y ( x 1 ( i ) , x 2 ( i ) ) log ⁡ p ( x 1 ( i ) , x 2 ( i ) ) + ( 1 − y ( x 1 ( i ) , x 2 ( i ) ) ) log ⁡ ( 1 − p ( x 1 ( i ) , x 2 ( i ) ) ) + λ T ∣ w ∣ 2 \mathcal{L}\left(x_{1}^{(i)}, x_{2}^{(i)}\right)=\mathbf{y}\left(x_{1}^{(i)}, x_{2}^{(i)}\right) \log \mathbf{p}\left(x_{1}^{(i)}, x_{2}^{(i)}\right)+\left(1-\mathbf{y}\left(x_{1}^{(i)}, x_{2}^{(i)}\right)\right) \log \left(1-\mathbf{p}\left(x_{1}^{(i)}, x_{2}^{(i)}\right)\right)+\boldsymbol{\lambda}^{T}|\mathbf{w}|^{2} L(x1(i),x2(i))=y(x1(i),x2(i))logp(x1(i),x2(i))+(1y(x1(i),x2(i)))log(1p(x1(i),x2(i)))+λTw2

其中 y y y 是 label 标记,如果属于同一类,则 y = 1 y = 1 y=1,否 y = 0 y = 0 y=0 λ T ∣ w ∣ 2 \boldsymbol{\lambda}^{T}|\mathbf{w}|^{2} λTw2 是正则化项。

另外我们在对比一下和后面的 matching network 以及 prototypical network,后面的两种网络不再是孪生的结构(其实孪生本质就是一个网络),而是一个网络去 embed support set 中的样本,而且训练的方式也不再是验证任务的方式,而是和测试一样的分类任务。这种训练方式的也更好。进一步后面的网络开始引入元学习的概念以及任务的概念。

4. 有趣的一点

这篇论文我觉得很有趣的一个地方是实验 Section 4.4,在 Omniglot 上做验证任务,然后在 MNIST 上面做测试。在 few-shot 和 meta-learning 的综述中提到:https://blog.csdn.net/weixin_37589575/article/details/92801610):
解决 few-shot learning 的方法主流的有两种:

  1. 数据增强和正则化
  2. Meta-learning(元学习)

方法 1 和方法 2 之间有个明显的差异就是 meta-learning 需要构建一些 meta-training task。由于 meta-testing 的类别要和 meta-training 完全不同,因此如果我们只有 MNIST 数据集,没法使用 meat-learning 来解决 MNIST 上的 10-way few-shot learning 问题,但是方法 1 可以。不过我们可以使用 meta-learning 解决 MNIST 上的 N-way (N < 6) 的 few-shot learning 问题。

但是那么如果我们非要解决 MNIST 上的 10-way few-shot learning 问题怎么办呢,可以在另外一个数据集,例如 Omniglot ,上面进行 meta-training,然后学到的先验知识用来解决这个问题。

我们发现在 Omniglot 上学到的先验知识确实可以帮助在 MNIST 数据集上进行又快又好的学习。实验结果比最近邻算法好很多。

5. 其他

实验,相关工作,结论,具体的 CNN 模型结构以及训练策略等请参考原论文。原论文中还有两段简要介绍了 CNN 的基本特性 。

6. 论文链接

《Siamese Neural Networks for One-shot Image Recognition》:www.cs.toronto.edu/~gkoch/files/msc-thesis.pdf.
《Learning a Similarity Metric Discriminatively, with Application to Face Verification.》:http://yann.lecun.com/exdb/publis/pdf/chopra-05.pdf.

  • 0
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值