Meta-Transfer Learning:A Meta-Learning Approach for Custom Model Training

这篇paper,感觉有点牛哎~只有两页

为了克服之前提出来的两个问题,我们提供一个新的训练算法,这个算法继承了元学习和遗传学习的优势。

这个联合训练方法使用了两个损失函数:

1)task-specific(遗传学习):     定义在整个基础模型的训练集上

2)task-agnostic(元学习):      定义在任务分布的元学习损失(例如:5个分类的分类任务)

从这两个 损失函数 中独立计算两个梯度更新,然后用这两个 更新向量 的 加权平均值 更新模型

元学习中的任务是 从分布中 采样出来的,然而在采样中的所有的实例都是为了遗传学习中的优化

为了适应一个未知的任务,将使用规则随机梯度下降(损失函数每计算一次就更新一次,速度快但是会在最小值那震荡,因为有的数值是往反方向更新)

对于元学习模型,我们用MAML和Repyil评估我们的方法,我们用这类的元学习算法是因为:由于这类算法反对匹配网络和他们的一阶形式,他们的模型不可知,可以直接应用到任何一个被梯度下降训练法训练过的模型上。

这个被提出的模型在某种意义上相似于Gradient Agreement ,因为它把模型参数推动到朝着一方向的推动,即整个任务的分布和整个类别的训练的单个特殊任务的分布相一致。

 

 

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值