SelfGNN: Self-Supervised Graph Neural Networks for Sequential Recommendation

SelfGNN: Self-Supervised Graph Neural Networks for Sequential Recommendation(Sigir2024)

在这里插入图片描述

摘要

顺序推荐通过对用户的时间和顺序交互模式进行建模,有效地解决信息过载问题。 为了克服监督信号的局限性,最近的方法在推荐系统中采用了自监督学习技术。 然而,仍有两个关键挑战尚未解决。 首先,现有的序列模型主要关注个体交互序列的长期建模,忽视了不同用户行为之间有价值的短期协作关系。 其次,现实世界的数据通常包含噪音,特别是在用户的短期行为中,这些行为可能是由临时意图或误点击引起的。 这种噪声会对图和序列模型的准确性产生负面影响,使建模过程进一步复杂化。 为了应对这些挑战,我们提出了一种称为自监督图神经网络(SelfGNN)的新颖框架,用于顺序推荐。 SelfGNN 框架根据时间间隔对短期图进行编码,并利用图神经网络 (GNN) 来学习短期协作关系。 它通过区间融合和动态行为建模捕获多个粒度级别的长期用户和项目表示。 重要的是,我们的个性化自我增强学习结构通过基于长期用户兴趣和个人稳定性减轻短期图中的噪声来增强模型的稳健性。

尽管使用 SSL 在图和顺序推荐器方面取得了重大进展,但仍然存在一些尚未解决的挑战(如图 1 所示)。 首先,现有的长短期序列推荐器[3, 48]通常主要关注对单个用户序列进行编码,而忽略了用户之间本质的周期性协作关系[7]。 传统的 GNN 仅依赖于静态数据。 尽管一些工作构建了动态和时间 GNN,但它们忽略了 GNN 中长期和短期方面的考虑,也没有解决构建更鲁棒的动态学习范式。 其次,现有 SSL 方法取得的令人印象深刻的结果很大程度上依赖于高质量的数据 [41]。 然而,现实世界的数据通常包含噪音,例如用户的误点击、临时意图或兴趣转移[28]。 现有模型倾向于通过多跳图消息传播或多层成对自注意力来放大此类噪声,这会极大地影响其他节点的表示[32]。 值得注意的是,“噪音”的概念对于不同的用户来说是不同的,因为一些用户有不同的兴趣,而另一些用户则有更稳定的偏好。 当前的去噪方法缺乏有效处理用户特定噪声的能力,并且通常依赖于随机数据增强。 这些挑战阻碍了用户行为的准确表示。

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值