2017
Overcoming catastrophic forgetting in neural networks (PNAS)
问题:神经网络不擅长处理序列化任务
方法:通过疑惑中的第二个公式来对loss进行约束,从而让神经网络进行新任务的学习时,尽可能地保持原本的参数不改变。
但是其实验部分(排除强化学习部分)显得有些简略:主要参考文献An Empirical Investigation of Catastrophic Forgetting in Gradient-Based Neural Networks中的实验MNIST设置,
贡献:为后世提供了一个相当重要的baseline:EWC
Expert Gate: Lifelong Learning with a Network of Experts (CVPR)
问题:Incremental Learning中对于inter-task之间的关系并不明确,可以分为相似任务和非相似任务进行进一步的划分,从而执行更好的策略
方法:使用了auto-encoder的方法,基于“不同任务的encoder必定更专精于该任务数据”的特点,使用encoder将不同任务分隔开,形成一个gate。
通过该gate,就可以区分新的数据应该交给哪个expert进行识别,从而提高准确率。
同时也是基于该gate的结果,我们可以区分新任务的参数由哪个旧任务迁移会更好
贡献:任务相似度的提出, 有利于更好地将任务交给对应的模型执行
疑惑:该论文时task-level级别的incremental learning,在其理解的incremental learning中,并没有对模型增长的速度进行限制(在本文中呈现出,每经过一个task就增长一整个模型)
另外,笔者认为该论文给出的方法在实验验证中过于简单,其较好的结果更像是针对验证集良好的调参的结果,模型本身的优越性仍待商榷,但是本身的“筛选”思路是有趣的
Encoder Based Lifelong Learning(ICCV)
方法:继承上篇文章,同样使用auto-encoder,但是用于提取出特征中最informative的部分,并用它作为蒸馏目标,对特征提取器F进行修改,而不是直接用F输出的特征作为目标。
该方法仍然是task级别的。