Anatomy of Catastrophic Forgetting: Hidden Representations and Task Semantics

本文分析了在序列学习任务中,新任务如何导致对已学习任务的灾难性遗忘,发现遗忘与任务之间的语义相似度有关。通过实验,作者揭示了在某些情况下,语义接近的任务遗忘较少,而在其他情况下,不相似的任务遗忘更少。此外,研究还提出了一个分析模型,探讨了遗忘如何随任务相似性的变化而变化。
摘要由CSDN通过智能技术生成

2020.6 arxiv,一篇分析序列学习任务中,新学习分类,对已学习分类的灾难性遗忘影响的文章。结论还是有些意思的,类别之间并非等价,已学习的表示对后续遗忘也会产生影响。

1.Introduction

模型在non-stationary的数据分布上学习时,在旧数据上,有性能损失。除continual learning外,灾难性遗忘于多任务学习和标准监督学习中,面对分布偏移和数据增强时也存在。

现有的很多方法都只在特定的设定下有效,对灾难性遗忘本身还是缺乏理解。

本文贡献:

  • 通过使用代表性相似度、层冻结、层重置实验,探究遗忘如何影响网络的隐含表示。深层(靠近输出)是遗忘的主要来源。
  • 使用层级标签结构的CIFAR-100实验。
  • 测试了两个减缓遗忘的流行方法:replay buffers、EWC。他们都稳固了深层表示。
  • 遗忘与任务相似性有关
  • 用一个分析框架形式化了语义相似度对遗忘的影响。对于中等相似的任务,遗忘最严重。

2.Related Work

大多数研究集中于减缓遗忘的方法,隐式或显式地划分参数完成不同任务,正则化或贝叶斯方法。

本文重点分析隐表示如何导致遗忘。以前的分析关注任务序列和网络结构,或者使用premuted-MNIST的评价指标,但这很可能导致提出的方法只对特定设定有效。

3.Datasets and Tasks for Catastrophic Forgetting

Sp

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值