无监督学习与有监督学习的本质区别是什么_无监督元学习(Unsupervised Meta-Learning)...

26345cd5-6213-eb11-8da9-e4434bdf6706.png

自从ICML2017的Model-Agnostic Meta-Learning (MAML)以及NIPS17的Prototypical Networks (ProtoNet)等paper出现之后,一系列meta learning以及few-shot learning的paper如雨后春笋般涌现出来。同时,常用的几个数据集Omniglot、miniImagenet、tieredImagenet的性能也被不断刷新。

结合最近无监督学习的潮流,元学习相关方法和无监督学习的结合,成为了最近一个新的方向。本文主要介绍基于MAML的无监督元学习相关工作。

有监督和无监督元学习的对比,如图1。区别主要在Meta-train阶段,有监督元学习可以利用标签信息进行训练,而无监督元学习只能利用无标注的原始数据。无监督的常见方法,比如self-supervised learning,clustering,generative model等等都有可能应用到无监督元学习中。

27345cd5-6213-eb11-8da9-e4434bdf6706.png
图1. 有监督和无监督元学习比较。在Meta-train阶段,无监督元学习只能利用无标注的数据进行学习,而有监督元学习可以利用标签信息进行训练。Meta-test阶段,有监督和无监督的设置相同。

CACTUs (Unsupervised learning via meta-learning)

29345cd5-6213-eb11-8da9-e4434bdf6706.png
图2. CACTUs方法框架图。首先,预训练得到特征表示(1),对训练数据进行无监督聚类,得到若干组伪标签数据(2a)。然后根据伪标签随机采样多个任务(tasks)(2b),运行正常的元学习算法(3),例如MAML或者ProtoNet。

这篇论文是MAML的作者Chelsea Finn等人发表在ICLR19的paper,主要提出了unsupervised meta-learning的设置以及一种简单的基于聚类的方法。虽然方法简单,但是也为后续基于无监督的元学习方法开辟了一个方向。

整个方法可以分成三个步骤(图2):

  1. 使用现有无监督特征学习方法,在无标签训练集合得到特征表示(embedding function)
  2. 使用聚类方法(例如,k-means)划分出多个子集合
    等。然后随机采样构建伪标签的元学习任务
  3. 使用监督元学习方法,如MAML、ProtoNet在步骤2构建的元学习任务上进行学习。需要指出的是这个步骤学习用到的网络结构是随机初始化的,而不是从1步骤得到。这么做,是非常必要的,因为如果聚类和元学习都使用步骤1的网络结构和参数,很可能引起过拟合现象。

作者在Omniglot、Mnist、MiniImagenet以及CelebA上进行了实验,验证了clustering+meta learning的有效性。另外,如图3,通过无监督元学习和有监督元学习的对比,可以看出无监督性能逐步接近有监督性能。

2a345cd5-6213-eb11-8da9-e4434bdf6706.png
图3. 无监督元学习和有监督元学习性能对比

UMTRA (Unsupervised Meta-Learning for Few-Shot Image Classification)

2d345cd5-6213-eb11-8da9-e4434bdf6706.png
图4. UMTRA方法框架图。首先,随机选取N个样本作为N个类别,然后将原图片作为support set,augmentation之后的图片作为query set。最后,使用有监督的MAML算法进行元学习参数更新。

CACTUs是一个多步骤的元学习算法,需要先单独训练特征表示,然后用于聚类,最后训练新的网络结构。它的过程相对负责,而且没有很好的灵活性。

受到一些自监督(self-supervised)方法的启发,UMTRA提出了一个end2end的元学习框架,如图4。整个方法包含三个部分:

  1. 随机采样N个图片,每个图片单独认为是一个类别,就是N-way 1-shot 的任务
  2. 对每个图片进行数据增广(Augmentation),增广之后对数据作为元学习的query set,原图作为support set。这样,就有了N-way 1-shot的support+query数据以及N个label。
  3. 运行MAML算法,进行训练。

作者对方法的动机进行了解释:假设训练集合共有

个类别,每个类别有
个样本,我们每次随机选取
个样本。这
个样本全部来自不同类别的概率是:

2e345cd5-6213-eb11-8da9-e4434bdf6706.png

上述公式,分子是

个样本全部来自不同类别的可能情况,分母是所有随机组合的情况数目。对于Omniglot(
),
;对于MiniImagenet,
;对于Imagenet,
所以,随机选择的样本有很大概率来自不同类别,这样选出来的样本应该比k-means聚类得到的伪标签更接近真实数据。

其他方法

AAL和UMTRA是同期工作,方法也很大程度重合,但是性能略低于UMTRA。

Centroid Networks提出了不同的Unsupervised meta-learning的设置,但是由于它是ICLR2020的拒稿paper,这里不做深入解读。

本文涉及到的论文如下:

  1. Kyle Hsu, Sergey Levine, and Chelsea Finn. Unsupervised learning via meta-learning. In International Conference on Learning Representations, 2019.
  2. Khodadadeh, Siavash, Ladislau Boloni, and Mubarak Shah. "Unsupervised Meta-Learning for Few-Shot Image Classification."Advances in Neural Information Processing Systems. 2019.
  3. A. Antoniou and A. Storkey. Assume, augment and learn: Unsupervised few-shot meta-learning via random labels and data augmentation. arXiv preprint arXiv:1902.09884, 2019.
  4. Gabriel Huang, Hugo Larochelle, and Simon Lacoste-Julien. Are few-shot learning benchmarks too simple? 2020.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值