Incremental Learning论文阅读(2)

2017

Overcoming catastrophic forgetting in neural networks (PNAS)
问题:神经网络不擅长处理序列化任务
方法:通过疑惑中的第二个公式来对loss进行约束,从而让神经网络进行新任务的学习时,尽可能地保持原本的参数不改变。
但是其实验部分(排除强化学习部分)显得有些简略:主要参考文献An Empirical Investigation of Catastrophic Forgetting in Gradient-Based Neural Networks中的实验MNIST设置,
在这里插入图片描述
贡献:为后世提供了一个相当重要的baseline:EWC

Expert Gate: Lifelong Learning with a Network of Experts (CVPR)
问题:Incremental Learning中对于inter-task之间的关系并不明确,可以分为相似任务和非相似任务进行进一步的划分,从而执行更好的策略

方法:使用了auto-encoder的方法,基于“不同任务的encoder必定更专精于该任务数据”的特点,使用encoder将不同任务分隔开,形成一个gate。
通过该gate,就可以区分新的数据应该交给哪个expert进行识别,从而提高准确率。
同时也是基于该gate的结果,我们可以区分新任务的参数由哪个旧任务迁移会更好
在这里插入图片描述

贡献:任务相似度的提出, 有利于更好地将任务交给对应的模型执行

疑惑:该论文时task-level级别的incremental learning,在其理解的incremental learning中,并没有对模型增长的速度进行限制(在本文中呈现出,每经过一个task就增长一整个模型)
另外,笔者认为该论文给出的方法在实验验证中过于简单,其较好的结果更像是针对验证集良好的调参的结果,模型本身的优越性仍待商榷,但是本身的“筛选”思路是有趣的

Encoder Based Lifelong Learning(ICCV)
方法:继承上篇文章,同样使用auto-encoder,但是用于提取出特征中最informative的部分,并用它作为蒸馏目标,对特征提取器F进行修改,而不是直接用F输出的特征作为目标。

该方法仍然是task级别的。
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值