文献阅读(37)AAAI2021-Overcoming Catastrophic Forgetting in Graph Neural Networks with Experience Replay

本文是对《Overcoming Catastrophic Forgetting in Graph Neural Networks with Experience Replay》一文的浅显翻译与理解,如有侵权即刻删除。

朋友们,我们在github创建了一个图学习笔记库,总结了相关文章的论文、代码和我个人的中文笔记,能够帮助大家更加便捷地找到对应论文,欢迎star~

Chinese-Reading-Notes-of-Graph-Learning

更多相关文章,请移步:文献阅读总结:网络表示学习/图学习

Title

《Overcoming Catastrophic Forgetting in Graph Neural Networks with Experience Replay》

——AAAI2021

Author: Fan Zhou

总结

文章将节点分类任务分为多个子任务,利用持续学习的特点针对具体任务提高性能。文章设立经验缓冲池,用来存放前期子任务得到的经验节点,对单个子任务,同时将子任务对应的训练集和从缓冲池中提取的经验节点进行训练,从而能够吸收过去任务的经验。为避免持续学习中经常出现的灾难性遗忘问题,文章提出了三种在子任务结束后选定经验节点的策略,最终提出了ER-GNN算法,伪代码如下所示:
在这里插入图片描述

1 问题定义

以节点分类任务为例,文章将该任务分为多个子任务,同时对应地将数据集也进行划分,每次子任务有对应的子训练集和测试集,从而用前期子任务学习到的经验,提高后续子任务的性能。

在这里插入图片描述
文章目标是学习一个优化后的带参模型,既能够提高效果,又能够避免持续学习中对过去经验的灾难性遗忘问题。

2 经验节点再训练

文章设立了经验节点缓冲池B,对一个子任务而言,需要训练优化的节点除其对应的训练集外,还有从缓冲池B中挑选出的经验节点,没有引入经验节点时的损失函数如下所示:

在这里插入图片描述
在引入经验节点时,文章需要设置一个权重因子b来平衡训练集和缓冲池,避免模型偏向于特点的节点集,即:

在这里插入图片描述
其中|D|和|B|分别表示训练集和缓冲池中的节点数量,在引入经验节点后损失函数变化为:

在这里插入图片描述

3 经验节点选取策略

在一个子任务结束后,需要对其中的经验节点进行挑选放入缓冲池中,文章提出了三种策略来挑选经验节点,分别是:平均特征、覆盖面积最大化和影响最大化。

3.1 平均特征(Mean of Feature, MF)

从直觉上看,对于一组节点而言,最具有代表性的节点是与该组节点平均化结果最接近的节点。设节点的属性特征向量为x,嵌入向量为h,则针对一个训练集,其平均模板计算如下:

在这里插入图片描述
计算得到平均模板后,可以按照需求选取任意个与模板最接近的节点,放入缓冲池。

3.2 覆盖面积最大化(Coverage Maximization, CM)

文章确定一个最长距离,那么对任意节点,该距离内的其他类别节点数量都是固定的,这个范围内节点数量越多,则覆盖面积越大,即:

在这里插入图片描述
在得到每个节点的覆盖面积后,可以进行排序,并选取任意个节点放入缓冲池。

3.3 影响最大化(Influence Maximization, IM)

计算某个节点的影响时,常用的方法是将该节点删除,再进行训练,观察最优参数和之前的变化,若将删除某个节点以*标注,则有:
在这里插入图片描述
然而,这种方法要对每个节点都如此进行,计算量较大,因此文章借助了前人工作中估算参数变化的方法。这种方法不是将单个节点删去,而是专门将其提出来,用一个较小的变量加权,如下所示:
在这里插入图片描述
得到该公式后,就可以左右两边同时对该较小变量求导,就能得到关于单个节点的影响力。
在这里插入图片描述
而在求导过程中,通过下式的黑森矩阵转化,可以发现这个较小变量有明确的表达式,从而能够线性地估算单个节点删除引起的变化。
在这里插入图片描述
然而,上述的方法得到的变化数值较小,且黑森矩阵取倒计算量较大,因此文章替代性地来估计,对一个测试节点而言,加权后的单个节点对损失值造成的影响。
在这里插入图片描述
对所有测试节点的影响加和后,就可以使用隐式黑森向量积(HVPs)来近似代替对黑森矩阵求倒的计算。

在这里插入图片描述
文章使用最原始的GNN作为模型框架,并未做额外修改,同样也可使用GAT等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值