论文阅读:IL2M: Class Incremental Learning With Dual Memory

IL2M: Class Incremental Learning With Dual Memory

1.总览

本文还是用于解决类增量学习的,学习过程是普通的微调(区别于用蒸馏损失的方法),区别在于加入了两个记忆:

  • 一个记忆样本(exemplar),用于训练过程微调,容量固定(类越多,每类样本量越小);
  • 一个记忆新类微调后的统计量(statistics),用于预测时修正原始分类输出,(只是几个浮点数,很小)。

由于记忆的加入,类增量学习问题,实际变成了不均衡数据集学习。作者在这里有几个有趣的发现:

  • 在允许记忆样本时,蒸馏损失实际会降低模型性能;
  • 模型预测时,新类的原始输出会明显较大。原因是样本不均衡。

性能在2019年比SOTA更好。

2.相关工作

这里作者把类增量学习的方法分为三类:

1.调整/增加参数以适应新类:

  • Growing a Brain:增宽增深网络
  • Deep Adaptation Networks:每个新类增加13%左右参数量
  • Progressive neural networks:简单粗暴
  • Committee of expert networks:门机制,选择最合适的专家
  • 神经网络参数族,共享大多数参
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值