论文阅读:Compacting, Picking and Growing for Unforgetting Continual Learning

Compacting, Picking and Growing for Unforgetting Continual Learning

这是2019年的NIPS的文章,来自台湾中央研究院资讯科学研究所。

这篇关注深度模型压缩、关键权重选择、渐进网络扩展。呼应标题的压缩、选择、成长。

本方法在增量学习中,直接没有遗忘问题,不用记忆数据,同时能利用之前累积的知识建立一个更好的模型(比起重新训练来说)。


1.Intrduction

顺序任务学习中,如何保持对过去任务的性能。过去数据不可用,fine-tuning会导致灾难性遗忘。

  • 为减轻遗忘,可对梯度或参数的正则化——比如Krikpatrik的EWC,尝试寻找两个任务之间的交集。Schwarz介绍的一种知识蒸馏方法,应用EWC,教师和学生网络。
    然而这系列方法还是会渐渐遗忘,不适合顺序任务无限的情况。

  • 为解决数据缺失问题,可用数据保留,记忆重放技术——数据保留直接保存重要数据或其编码,记忆重放导入额外记忆模型比如GAN,间接地保持数据信息或分布。
    缺点需要积累的旧信息显式再训练,这会导致记忆空间和遗忘的二难选择。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值