Few-shot Learning

原文:https://www.jianshu.com/p/a70869bb6e55

【领域报告】小样本学习年度进展|VALSE2018 https://zhuanlan.zhihu.com/p/38246454

零/小样本以及开集条件下的社交媒体分析 https://blog.csdn.net/XWUkefr2tnh4/article/details/79021641

当小样本遇上机器学习(超详细) https://blog.csdn.net/mao_feng/article/details/78939864

[原创]论文浅尝 | 当知识图谱遇上零样本学习——零样本学习综述 http://www.jintiankansha.me/t/9hBKh0fd7h

张俊  小样本综述 https://zhuanlan.zhihu.com/p/61215293

task 小样本综述https://mp.weixin.qq.com/s/-73CC3JqnM7wxEqIWCejWQ

0 问题定义

Few-shot Learning 是 Meta Learning 在监督学习领域的应用。Meta Learning,又称为 learning to learn,在 meta training 阶段将数据集分解为不同的 meta task,去学习类别变化的情况下模型的泛化能力,在 meta testing 阶段,面对全新的类别,不需要变动已有的模型,就可以完成分类。  

形式化来说,few-shot 的训练集中包含了很多的类别,每个类别中有多个样本。在训练阶段,会在训练集中随机抽取 C 个类别,每个类别 K 个样本(总共 CK 个数据),构建一个 meta-task,作为模型的支撑集(support set)输入;再从这 C 个类中剩余的数据中抽取一批(batch)样本作为模型的预测对象(batch set)。即要求模型从 C*K 个数据中学会如何区分这 C 个类别,这样的任务被称为 C-way K-shot 问题。  

训练过程中,每次训练(episode)都会采样得到不同 meta-task,所以总体来看,训练包含了不同的类别组合,这种机制使得模型学会不同 meta-task 中的共性部分,比如如何提取重要特征及比较样本相似等,忘掉 meta-task 中 task 相关部分。通过这种学习机制学到的模型,在面对新的未见过的 meta-task 时,也能较好地进行分类。 图 1 展示的是一个 2-way 5-shot 的示例,可以看到 meta training 阶段构建了一系列 meta-task 来让模型学习如何根据 support set 预测 batch set 中的样本的标签;meta testing 阶段的输入数据的形式与训练阶段一致(2-way 5-shot),但是会在全新的类别上构建 support set 和 batch。


1 通过迁移学习方法

1 )Model Based 

通过模型结构的设计快速在少量样本上更新参数,直接建立输入 x 和预测值 P 的映射函数;

One-shot learning with memory-augmented neural networks

**Meta networks 的快速泛化能力源自其“快速权重”的机制,在训练过程中产生的梯度被用来作为快速权重的生成。模型包含一个 meta learner 和一个 base learner,meta learner 用于学习 meta task 之间的泛化信息,并使用 memory 机制保存这种信息,base learner 用于快速适应新的 task,并和 meta learner 交互产生预测输出。

Assignment 1: 研究 meta networks

2)Metric Based 相似度

通过度量 batch 集中的样本和 support 集中样本的距离,借助最近邻的思想完成分类;

a 孪生网络(Siamese Network)

b 匹配网络(Match Network)

c 原型网络(Prototype Network)

d 关系网络(Relation Network)

e 图网络 few-shot with GNN 

3)Optimization Based 

认为普通的梯度下降方法难以在 few-shot 场景下拟合,因此通过调整优化方法来完成小样本分类的任务。

Assignment2 :研究下面两篇

找到一个网络最好的初始位置,经过几个小样本的调整后可以得到最好的表现。 [7] Ravi, Sachin, and Hugo Larochelle. "Optimization as a model for few-shot learning." (2016). 

[8] Finn, Chelsea, Pieter Abbeel, and Sergey Levine. "Model-agnostic meta-learning for fast adaptation of deep networks." Proceedings of the 34th International Conference on Machine Learning-Volume 70. JMLR. org, 2017.

2 通过数据增强方法

semantic feature augmentation in few-shot learning 在语义空间增强(付彦伟的,58,76)

low-shot visual recognition by shrinking and hallucinating features

AGA (3d)

3 灾难遗忘

4 付彦伟说目前的成果主要还是基于把已知类别的一些信息迁移到新的类别上。可能未来可以尝试下更多的方向,比如利用无监督的信息或者是半监督的方法。(没啥用??)



4 一些模型比较




5 meta-learning References

S. Thrun. Learning To Learn: Introduction. Kluwer Academic Publishers, 1996.

Ricardo JVilalta and Youssef. Drissi. A perspective view and survey of meta-learning. Artificial intelligence review, 2002.

Meta-Learning: A Survey

Brenden M Lake, Tomer D Ullman, Joshua B Tenenbaum, and Samuel J Gershman. Building machines that learn and think like people. Beh. and Brain Sc., 40, 2017.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值