Dropout as an Implicit Gating Mechanism For Continual Learning

本文探讨了dropout如何作为隐式门控机制,促进深度学习网络在持续学习中的稳定性,防止遗忘。研究表明,dropout通过神经元的稀疏编码和正则化作用,使网络形成任务特定的激活模式,类似于门控,从而在处理新任务时保留旧任务的知识。
摘要由CSDN通过智能技术生成

Dropout as an Implicit Gating Mechanism For Continual Learning

来自CVPR2020 workshop,Deepmind和华盛顿州立大学。搜了下发现此外还有三个华盛顿大学,这是综合排名最低的一个...

早有研究发现,dropout后的网络,在类增量学习中,会遗忘地慢一些,然而对此并没有清晰的解释。本文研究了dropout和遗忘的关系,认为dropout相当于一个隐式的门机制,会给网络带来稳定性,这就是防止遗忘的关键。

用门机制来做CL的研究之前也有一些,本文认为CL的问题同稳定性-塑性困境(stability-plasticity dilemma)有很强关联,这个原是生物神经研究的术语。

Table of Contents

Dropout as an Implicit Gating Mechanism For Continual Learning

1Introduction

2.Related Work

3.Dropout and Network Stability

4.Experiment Setup

5.Results


1.Introduction

问题: Continual Learning ,序列任务学习,学了新的会忘掉旧的,远达不到多任务学习的上限。

 

motivation
dropout 后的网络,会遗忘地更慢;没 dropout 的网络,学习更快
生物智能的稳定性 - 可塑性问题( stability-plasticity dilemma
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值