Generalized Adaptation for Few-Shot Learning

论文题目:Generalized Adaptation for Few-Shot Learning

(一)本文主要提出的方法:

在这里插入图片描述

(二)相关工作

(1)基于特征的方法(Feature based approach)

MatchingNet and ProtoNet 基于欧几里得度量
基于余弦相似度度量
Relation net :使用一个深层网络计算原型距离。下篇看一下Learningto compare: Relation network for few-shot learning. In: Proceedings of the IEEE
但仍无法使训练类提取出的特征嵌入方法很好的对新类进行适应,因此本文提出了改进:losed-form base learner method

(2)基于初始化的方法(Initialization based approach)

该方法主要分为两步:预训练和适应。
LSTM:
MAML: Model-agnostic meta-learning for fast adaptation of deep networks.
Reptile:On first-order meta-learning algorithms对MAML的扩充。
Meta-sgd: Learning to learn quickly for few-shot
learning.

本文提出的方法: Amphibian to learn a good weight initialization。

(三)方法

3.1:问题的公式化定义
3.2:提出使用closed-form base learner来使特征提取器适应到新类。
3.3:通过Amphibian学习到好的模型初始化参数。可以快速适应到所有task。
3.4:证明Amphibian。

3.1

3.2 Closed-Form Base Learner(需要看那篇论文才能看懂)

本节提出的理论:
自适应模型的泛化能力与自适应模型与预训练基模型之间的欧氏距离成负相关。
在这里插入图片描述
G是模型的泛化能力。分别是自适应模型与预训练模型。
因此参数应该满足以下条件:
在这里插入图片描述
CFLB(·) is the closed-form base learner.
其中基础分类者模型基于余弦分类器,其中封闭形式的解很容易找到。 Cosine Classifier (CC) (Dynamic few-shot visual learning without forgetting.)
CC:更好的保存了在嵌入空间中类邻居的构造。
形式为:

在这里插入图片描述
在这里插入图片描述

3.3 Amphibian

在这里插入图片描述
在这里插入图片描述

Dynamic few-shot visual learning without forgetting.
Meta-learning with differentiable convex optimization.
Dropout: a simple way to prevent neural networks from overfitting.

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值