小样本学习&元学习经典论文整理||持续更新
核心思想
本文提出了一种基于任务无偏思想的元学习算法用于解决小样本学习问题。基于参数优化的元学习算法是小样本学习领域中的一个重要的分支,如MAML,Meta-LSTM,这一类型的算法试图通过元学习的方式得到一个较好的初始化模型或者梯度下降的方向,使得模型能够只利用较少的新样本,就能实现很好的效果。而作者指出其中潜在的一个问题,就是模型在训练过程中容易产生对于训练任务的偏好,而导致泛化能力下降。这一点是很好理解的,无论我们怎样期待我们得到的初始模型通用性有多好,但毕竟是在一定范围内的样本上进行训练,得到的模型注定会更适用于这部分样本,而对于新样本的泛化能力是有限的。作者正是出于这种考虑,希望训练一种任务无偏的(或者说任务不限的)元学习算法(Task-Agnostic Meta-Learning,TAML)来解决或者缓解上述问题。
为解决上述问题,作者提出了两种方案:基于熵减最大化的TAML和基于最小化不平等性的TAML,下面我们依次介绍两种方案。
首先定义
f
θ
f_{\theta}
fθ是初始化的模型,
f
θ
i
f_{\theta_i}
fθi是在任务数据集
T
i
T_i
Ti上进行训练得到的模型,则模型
f
θ
f_{\theta}
fθ的熵为
式中
y
^
i
,
n
\hat{y}_{i,n}
y^i,n表示初始模型
f
θ
f_{\theta}
fθ的预测结果,通常是一个softmax层的输出。熵越大则表明预测结果随机性越高,初始模型对于各个类别的样本没有任何偏好。但我们不能只简单的最大化初始模型的熵,还有最小化进过训练的模型
f
θ
i
f_{\theta_i}
fθi的熵
H
T
i
(
f
θ
i
)
H_{T_i}(f_{\theta_i})
HTi(fθi)。这就相当于最大化熵减
H
T
i
(
f
θ
)
−
H
T
i
(
f
θ
i
)
H_{T_i}(f_{\theta})-H_{T_i}(f_{\theta_i})
HTi(fθ)−HTi(fθi),将其与元训练目标结合起来得到以下目标函数
这个算法过程如下图所示
这一方法有效地实现了作者的想法,但存在一个问题,就是只能针对离散的标记计算熵,而不能满足一些连续性输出的任务需求,因此只能针对于分类问题。在此基础上作者又提出了基于最小化不平等性的方法,这一思想来自于经济学上的不平等性概念,简单而言就是每个任务的损失可以看做这个任务的收入,如何保证模型对于每个任务都是无偏的呢?那就需要减少每个任务收入之间的不平等性。实现的过程也非常简单,最小化下述目标
式中
I
ε
I_{\varepsilon }
Iε是不平等性的度量方式,作者引入了多种经济学或信息学中的度量方式,此处不再展开介绍了,感兴趣的可以阅读原文具体了解计算方法。该算法的计算过程如下
实现过程
网络结构
本文选择MAML作为Baseline,因此采用与MAML相同的网络结构,只是用LeakyReLU取代了ReLU。
损失函数
如上文所述在原有的损失函数基础上增加了最大化熵减损失项或者最小化不平等性损失项
训练策略
与MAML的训练模式相同,只是修改了目标函数
算法推广
同样可以推广到强化学习等连续性输出的领域
创新点
- 提出了一种任务无偏的思想,通过引入正则化损失项的方式约束模型在参数更新时,尽可能的对所有任务都不产生偏好
- 设计了两种正则化方式:最大化熵减和最小化不平等性
算法评价
本文算是在MAML算法上的进一步改进,在原有的基础上通过正则化的方式显式地要求模型的参数对不同的任务不存在偏好,两个正则化项的设计也十分简单,实用。由实验结果来看,相对于baseline效果也有一定的提高。
如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。