Gradient Episodic Memory for Continual Learning(用于持续学习的梯度情景记忆)
本篇论文的贡献
①提出了一组指标来评估模型在连续数据上的学习。
②提出了一种持续学习模型,称为梯度情景记忆 (GEM),它可以减轻遗忘,并支持正向反向迁移。③在 MNIST 和 CIFAR-100 数据集上证明了 GEM 与最先进的技术相比具有强大的性能。
创新性
大多数监督学习方法假设每个示例 ( x i , y i ) (x_{i}, y_{i}) (xi,yi)是来自固定概率分布 P 的相同且独立分布 (iid) 的样本。ERM 的直接应用会导致“灾难性遗忘”(学习新任务可能会损害学习者在以前解决的任务中的表现)。本文缩小了 ERM 与更类似于人类的学习之间的差距。
i)任务的数量很大
ii)每个任务的训练示例数量很少
iii)学习者只观察与每个任务有关的示例一次
iv)报告了衡量迁移和遗忘的指标,而不是仅报告所有任务的平均性能。
Gradient of Episodic Memory (GEM)算法步骤
①将任务描述符 t i t_{i} ti引入输入样本 ( x i , y i ) (x_{i},y_{i}) (xi,yi)中构成数据连续体,假设整数任务描述符,并使用它们来索引情节记忆;假设数据连续体是局部独立同分布的,即每个 ( x i , t i , y i ) (x_{i},t_{i},y_{i}) (x