#今日论文推荐# IJCAI2022 | 求同存异:多行为推荐的自监督图神经网络

#今日论文推荐# IJCAI2022 | 求同存异:多行为推荐的自监督图神经网络

个性化推荐系统在现在的网络平台(或应用)中已经得到了广泛的应用,已解决它们面对的信息过载的问题。大多数推荐模型都是基于单一行为(称为单一行为推荐模型)设计的,即用户和项目之间的一种关联。例如,如下图a所示,在构建推荐模型时只使用购买行为。然而,在真实场景中,用户行为通常不止一种。例如,如下图b所示,除了购买行为外,单击并添加到购物车也可以在一定程度上反映用户的偏好。我们通常将购买行为视为目标行为,其他类型的行为视为辅助行为。近年来,越来越多的研究发现,仅仅利用购买行为是远远不能令人满意的,而辅助行为在帮助预测目标行为方面具有巨大的潜力。

为了充分利用这些不同类型的行为,近年来出现了一些多行为推荐模型。一种简单的方法是直接建模所有类型的行为,并应用单一行为推荐模型,而不考虑行为之间的差异。为了区分不同行为的语义,一些工作将不同的可学习权重分配给不同的边缘,以建模行为的重要性。此外,最近的一些研究为每个行为提供了一种嵌入表示,它可以配合节点嵌入来参与图卷积运算。(相关工作原文可见)
尽管取得了成功,但这些模型仍面临以下缺点。首先,他们主要关注有效融合多种行为,并捕捉这些行为的差异。然而,他们大多忽略了利用这些行为的共性,这对推荐性能也非常重要。例如,如上图(b)所示,通过目标行为购买与用户u3关联的项目和与添加到购物车的辅助行为关联的项目之间必须存在差异,这会导致用户对它们的不同行为。但同时,这些项目通过任何行为连接到用户u3,因此它们对u3也有某些共性(例如,相同的样式或价格区间)。这些共性可以反映用户在不同行为中的总体偏好,这些偏好通常对用户是否进行目标行为(例如购买)起决定性作用。因此,我们需要挖掘目标行为与其他行为之间的共性,并将这些共性整合到目标行为中,以提高目标行为下嵌入的质量,从而达到更高精度的推荐效果。因此,如何捕捉目标行为和辅助行为之间的共性是一个重要但尚未深入探讨的问题。
其次,大多数推荐模型都是基于监督范式的,用户和项目之间观察到的目标行为通常被视为监督信号。然而,稀疏监督信号不能保证图形学习的质量。即使有多种行为,上述问题仍然存在。为了解决这一问题,人们在单行为推荐方面做了一些努力,将单行为图分成两个视图进行对比学习。然而,这些方法不能直接应用于多行为推荐,因为它们忽略了辅助行为对目标行为的影响,放弃了它们的协同作用。因此,在多行为推荐领域,开发一种新的方案来解决这一问题显得尤为重要。
在本文中,我们提出了一个新的模型S-MBRec,这是一个多行为推荐模型,它从两种任务的角度考虑了多个行为的差异和共性,并且可以有效地缓解稀疏监督信号的问题。具体来说,对于每个行为,我们都执行GCN来了解用户和项目嵌入。为了区分不同行为的重要性,我们考虑了监督任务,并使用自动学习权重来聚合多个行为下的嵌入。同时,考虑到多种行为之间的共性,并有效地缓解了数据稀疏的问题,我们提出了一种星型对比学习任务,该任务只在目标和每个辅助行为之间进行对比学习。最后,我们共同优化这两项任务。

论文题目:Self-supervised Graph Neural Networks for Multi-behavior Recommendation
详细解读:https://www.aminer.cn/research_report/62aff29b7cb68b460fd6d3dd?download=falseicon-default.png?t=M5H6https://www.aminer.cn/research_report/62aff29b7cb68b460fd6d3dd?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值