[PMLR 2017] Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks


0. 摘要

MAML学习一个好的网络初始化参数,期望在新任务上可以快速泛化。


1. 动机

学习一个网络初始化参数,能够快速泛化到新任务上。
在这里插入图片描述


2. 方法

在这里插入图片描述
α \alpha α是base-learner的学习率; β \beta β是meta-learner的学习率。

  1. 随机初始化元学习参数 θ \theta θ
  2. while循环迭代
  3.   采样一个批次的任务 T i \mathcal T_i Ti
  4.   对于每一个采样任务
  5.     计算K个训练样本下,任务 T i \mathcal T_i Ti的梯度
  6.     用 θ \theta θ初始化网络参数,然后用梯度下降法更新base-learner参数为 θ ′ \theta' θ
  7.   对于每一个采样任务
  8.   计算所有任务测试集上的损失,根据梯度下降更新meta-learner的参数 θ \theta θ
  9. 结束循环

在这里插入图片描述
在这里插入图片描述


3. 实验

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


4. 分析

MAML只是学习一个初始化参数,限制是所有任务使用同样的网络结构和更新规则。
MAML用的网络是浅层网络,为了不在小样本上过拟合。


5. 讨论

  1. pre-train为什么只走一步?pre-train也走两步,不就是reptile?
    tianyu的解释:pre-train只能走一步吧 他只是在一个大的数据集上预训练 本质上就是个train 怎么走两步

  2. 如何理解MAML、Reptile、Pre-train走一步,走两步?


6. 参考

  1. 论文
  2. 代码
  3. Meta Learning 入门:MAML 和 Reptile ⭐⭐⭐⭐⭐
  4. fine tuning
  5. MAML toy example
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值