NeurIPS2021-DualNet: Continual Learning, Fast and Slow

在这里插入图片描述

Abstract

神经科学的理论complementary learning systems; fast学当前具体任务信息(supervised),slow学通用的(self-supervised)

Introduction

the main focus of this study is exploring how the CLS theory can motivate a general continual learning framework with a better trade-off between alleviating catastrophic forgetting and facilitating knowledge transfer.
A single backbone to model both the hippocampus and neocortex; Figure1, slow learner use samples from the memory;
在这里插入图片描述
框架上来看,universal里面slow net利用自监督学习,通过memory的样本训练;
Focus在online continual learning, 传统的batch continual learning,

Method

Online continual learning setting.
区别task-aware setting, where only the corresponding classifier is selected to make a prediction; where the task-indentifier is not provided, task-free setting;
什么是episodic memory?
什么是supervised knowledge consolidation?
DualNet使用的是和别人episodic memory的默认配置。
Slow learner-> Self-supervised配置,只使用slow learner
现有各类自监督方法的分类和对应优缺点?
什么是动量更新在自监督里面?
Meta-learning for the slow learner->better generalization
Slow learner的学习方式都是采用集成了现有的方法。
Fast learner如何利用slow learner的信息?也是扩展了[42,43]的相关方法;
如何改进这个变换系数模块(transformation coefficients)?
在fast learner训练的时候,fast和slow learner如何交互?

Experiments

在这里插入图片描述
构建的benchmarks,split mini-ImageNet, CORE50;
什么是三个指标定义(ACC,FM,LA)
做了task-aware和task-free两个setting的实验;
分解实验给到了什么信息?4.2就刷sota; 4.3学习slow learner的不同SSL方式(loss和optimier) 4.4.给slower learner学习的时间 4.5 fast learner对性能的贡献;
4.6半监督的continual learning setting

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值