Task-Agnostic Meta-Learning

近一段时间来,元学习(Meta-Learning)在深度学习领域获得了广泛的关注。与大部分其他的机器学习算法相比,元学习最突出的特定是“Learning to Learn”,即用机器学习的方法去学习训练方法

比如,基于梯度下降的训练算法,它有两个在传统机器学习框架下不可学习的超参数:1)初始的模型参数;2)每步的更新步长。一方面,模型参数往往通过随机初始化来实现。但由于大部分深度学习模型都是非凸的,导致模型的学习效果非常依赖于不同的随机初始条件。一个好的初始模型参数会对模型的学习效果有着非常大的影响。

而元学习的一个重要用途,就是通过学习的方法学习一个对多个任务来说合适的初始参数,使得对这些训练任务和其代表的更多未来任务来说,从这个初始参数开始,对模型进行更新,都可以更快更好地得到新的模型。

特别地,这里更快的意思就是只需要少量的训练样本和少数的几次梯度下降,我们就可以期望得到合适的新任务的模型。这里,针对的就是所谓的Few-Shot Learning问题,即给定非常少量的样本(比如只有一个样本),我们通过一步迭代就可以得到对一个新类别、新物体的分类模型。

另一方面,在得到下降梯度后,如何有效的确定一个合适的更新步长,也是一个非常棘手的问题。利用元学习方法,我们也可以通过在多个任务上,使用机器学习的方法去确定合适的步长。甚至,可以直接把梯度做为输入,用一个递归神经网络去学习合适、最优的模型更新方向。

Task-Agnostic Meta-Learning

尽管元学习在很多深度学习问题中,包括图像分类和增强学习任务上取得很好的效果,但经典的元学习方法忽略了在多个任务上学习最优初始模型的一个重要问题:如何保证学习得到的初始模型对所有任务是没有偏差(unbiased)的?

具体来说,对训练一个元学习(meta-learner)模型而言,我们需要多个训练任务。尽管meta-learner会通过最小化更新后的模型在训练任务上的验证误差来训练meta-learner,但我们没有办法保证meta-learner训练出来的初始模型参数对所有任务都是没有偏差的。

一个很可能发生的情形是,初始模型对某些任务跟有效,而对另外一些任务就不是特别有效。这种情形,我们称meta-learner对不同任务是有偏的。一个有偏的meta-learner,在未来会遇到的新任务上,就有很可能不能给出一个很好的初始模型参数,而从使得从这个初始点开始,对模型进行有效的快速更新。

为了解决这个问题,我们提出一种任务无关(task agnostic)的无偏元学习方法。我们通过对初始模型加上一个正则化条件,使得它对不同的任务能“一视同仁”。这样,可以避免初始模型偏向于某些特定的任务,使得一旦给定一个新任务后,从这个初始模型出发,仍然最大可能在仅有少数训练样本的情况下快速迭代出一个最优模型。

我们提出两种方法来实现这种任务无关。

对一个分类任务,我们可以直接最大化初始模型在不同类别上的熵(Entropy Maximization)来实现对任务的无偏性。

另一方面,对一般任务,比如回归或增强学习任务,我们注意到往往可以通过定义一个损失函数(loss function)或者奖励函数(reward function)来定义和优化这些任务。如果把负损失或者奖励看着是给每个任务的收入(income),我们就可以基于经济学中的度量收入不平等(inequality)的方法来刻画meta-learner 在不同任务的bias。

比如,我们可以用广泛应用的基尼系数来度量元学习在不同任务的偏差,除此之外还有GE指数、Theil指数等。这些不平等度量具有不同的特性,可以聚焦考虑在特定的损失或奖励(收入)区间上任务。同时,这些度量还满足若干性质,使得它们非常适合作为不平等度量。比如对称性、伸缩不变性、非负性、传递原则等等。

通过最小化不平等度量,我们可以得到对不同任务无偏的meta-learner;我们有理由相信,这种无偏性,可以在某种程度上保证这种meta-learner对未来的新任务具有更好的泛化性能。



  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值