论文:利用邻域丰富的对比学习改进图协同过滤 (NCL) WWW22
文章链接:https://arxiv.org/abs/2202.06200v1https://arxiv.org/abs/2202.06200v1
1. 前言
1.1 提出的问题 (图神经协同过滤)
a. 用户-项交互数据通常是稀疏的或有噪声的,它可能无法学习可靠的表示,因为基于图的方法可能更容易受到数据稀疏性的影响。
b. 现有的基于GNN的CF方法依赖于显式的交互连接来学习节点表示,而高阶关系或约束(例如,用户或项目相似性)就不能显式的用于丰富图信息,然而这些(高阶信息或约束)在推荐任务中已经被证明是非常有用的。尽管最近的几项研究利用对比学习来缓解交互数据的稀疏性,但它们通过随机抽样节点或损坏子图来构建对比对,缺乏构建针对推荐任务更有意义的对比学习任务的思考。
1.2 做出的贡献
a. 我们提出了一个与模型无关的对比学习框架--NCL,它结合了结构邻居和语义邻居来改进图神经协同过滤。
b. 我们提出学习这两种邻居的代表性嵌入,这样就能在一个节点和相应的代表性嵌入之间进行对比学习,这在很大程度上提高了算法的效率。
c. 在五个公共数据集上进行了广泛的实验,证明我们的方法始终优于许多基线,包括GNN和基于对比学习的推荐方法。