Gradient Episodic Memory for Continual Learning
梯度情景记忆促进持续学习
1.相关信息:
- 单位:Facebook人工智能研究
- 时间:2017
- 代码:github镜像地址
- 论文:csdn下载地址
1.论文目标:
针对大量任务、少量样本的持续学习,在MNIST和CIFAR-100数据集上实验
2.重要细节:
- 前提假设:在每个任务内部,数据独立同分布
- 数据表示:三元组:输入,任务标识符、输出
- 前向迁移:学习一个新任务,对未来学习后续任务的影响
- 后向迁移:学习一个新任务,对之前已经学习的任务的影响
- 情景记忆模块:存储过去任务的数据对
- 持续学习实现:所有任务共用参数,保证学习新任务更新参数时,对记忆中过去任务数据的损失不升高,从而解决灾难性遗忘
- 衡量损失变化:用梯度方向夹角衡量,余弦值大于等于0为同向,不会影响过去任务的性能,具有良好的后向迁移能力
- 梯度更新方向修正:选择与原参数更新最相近(用L2范数衡量距离),且满足衡量损失变化条件的投影
- 二次规划及其对偶问题
3.启发与思考:
- 增加任务描述符:更详细的任务描述。通过任务描述符衡量不同任务之间的相似性,推断任务之间的关系,清楚类似任务间的歧义
- 相似度高的:学习新任务时可以加快学习速度,甚至实现0次学习
- 相似度低的:重点关注后向迁移问题中,衡量损失变化,而不必衡量相似度高的任务的损失变化
- 高级内存管理:构建过去任务的核心集