文章信息
摘要
尽管最近的一些研究试图将元学习与图神经网络结合起来,以便在属性网络上进行少镜头学习,但在元训练阶段创建不同的任务时,它们没有考虑到属性网络的独特属性——不同任务的特征分布可能非常不同,因为实例(即节点)不遵循数据i.i.d.对属性网络的假设。因此,它可能不可避免地导致元测试阶段的次优性能。为了解决上述问题,我们提出了一种新的图元学习框架——属性匹配元学习图神经网络(AMM-GNN)。具体来说,提出的AMM-GNN利用属性级的注意机制来捕获每个任务的不同信息,从而学习更有效的可转移知识进行元学习。我们在广泛的设置下对真实世界的数据集进行了广泛的实验,实验结果证明了所提出的AMM-GNN框架的有效性。
方法
这篇文章是MetaGNN的 扩展版本, 同样采用元学习框架MAML, 作者强调不同任务中 不同节点的 重要性不同,采用注意力来优化。 具体是采用 两个向量 来对 特征矩阵进行增强,从而使得 每个 节点的 每个特征都包含两个可优化的参数
文章的 关键: 如何计算这个两个向量
对于第一个属性(1),我们可以在𝑔𝝓𝜶和𝑔𝝓𝒃的生成器中对矩阵ˆ𝑿𝑡进行左乘法1,以避免所得到的匹配向量中不同属性之间的交集。对于属性(2),我们在第𝑡个任务T𝑡中对节点2进行了两次随机抽样,以减少随机性。具体来说,设V𝑡𝑖为第𝑖次采样的节点集(𝑖=1,2),ˆ𝑿𝑖𝑡为相应的聚合特征矩阵。我们设计了元训练中第𝑡个任务T𝑡的第𝑖次采样的匹配向量𝜶𝑡𝑖和𝒃𝑖𝑡
对于𝑖=1,2,其中MLP𝝓𝛼(·)和MLP𝝓𝒃(·)是多层感知器(MLP),只有左乘法,分别由𝝓𝛼和𝝓𝑏参数化。然后,将元训练中第𝑡个任务T𝑡的匹配向量𝜶𝑡和𝒃𝑡计算为随机抽样的平均池,即:
支持集 的损失函数 交叉熵
查询集损失:
加入了正则化项,以确保不同采样之间的匹配向量尽可能相似。
流程:
实验