Session-based Recommendation with Graph Neural Networks ----2019AAAI

摘要

基于会话的推荐问题旨在预测基于匿名会话的用户行为。以前的方法将会话建模为序列,并估计除项表示之外的用户表示以提出建议。虽然取得了令人满意的结果,但它们不足以获得会话中准确的用户向量,也不足以忽略项目的复杂迁移。为了获得准确的项目嵌入,并考虑到项目的复杂过渡,我们提出了一种新的方法,即基于会话的图神经网络推荐(SR-GNN),简称SR-GNN。在该方法中,会话序列被建模为图形化数据。在会话图的基础上,GNN能够捕捉到传统的顺序方法难以揭示的复杂的项目变迁。然后,使用注意力网络将每个会话表示为全局偏好和该会话的当前兴趣的组合。在两个真实数据集上进行的大量实验表明,SR-GNN的性能明显优于目前最先进的基于会话的推荐方法。

1 介绍

随着互联网上信息量的快速增长,推荐系统成为许多Web应用(如搜索、电子商务和流媒体网站)中帮助用户缓解信息过载问题和选择感兴趣信息的基础。现有的推荐系统大多假设用户的个人资料和过去的活动被不断地记录下来。然而,在许多服务中,用户标识可能是未知的,并且只有正在进行的会话期间的用户行为历史可用。因此,在一个会话中对有限的行为进行建模并生成相应的推荐是非常重要的。相反,依赖于充分的用户-项目交互的传统推荐方法在这种情况下在产生准确结果方面存在问题。
由于具有很高的实用价值,人们对这一问题的研究兴趣与日俱增,并提出了多种基于会话的推荐方案。基于马尔可夫链,一些研究根据用户前一个行为预测下一个行为。在强独立性假设下,过去分量的独立组合限制了预测精度。

近年来,大多数研究(Hidasi et al.。2016a;Tan,Xu,Liu 2016;Tuan and Phuong 2017;Li et al.。2017a)将递归神经网络(RNNs)应用于基于会话的推荐系统,取得了良好的效果。这项工作(Hidasi等人。2016a)首先提出了一种递归神经网络方法,然后通过数据扩充和考虑用户行为的时间转移对模型进行了改进(Tan,Xu,and Liu 2016)。最近,NARM(Li et al.。2017a)设计了一个全局和局部的RNN推荐器,同时捕捉用户的顺序行为和主要目的。与NARM相似,STAMP(Liu et al.。2018)还通过使用简单的MLP网络和关注的网络来捕捉用户的一般兴趣和当前兴趣。

虽然上述方法取得了令人满意的效果,成为最先进的方法,但仍有一定的局限性。首先,如果在一个会话中没有足够的用户行为,这些方法很难估计用户表示。通常,这些RNN方法的隐藏向量被视为用户表示,使得随后可以基于这些表示来生成推荐,例如,NARM的全局推荐器。然而,在基于会话的推荐系统中,会话大多是匿名的和大量的,会话点击所涉及的用户行为通常是有限的。因此,很难准确估计来自每个会话的每个用户的表示。其次,以前的工作表明,项目转换的模式是重要的,可以作为一个局部因素(Li等人。2017a;刘等人。2018),但是这些方法总是对连续项之间的单向转换进行建模,而忽略了上下文之间的转换,即会话中的其他项。因此,这些方法往往忽略了远距离项目之间的复杂过渡。

为了克服上述局限性,我们提出了一种新的基于会话的图神经网络推荐方法SR-GNN(简称SR-GNN),以挖掘项目之间的丰富变迁,并生成准确的项目潜在向量。图形神经网络(GNNs)(Scarselli等人。2009年;Li等人。2015)用于生成图形的表示。最近,它已被广泛用于自然语言处理和计算机视觉应用的图结构依赖建模,例如脚本事件预测(Li,Ding,and Liu 2018),态势识别(Li等人。2007b),以及图像分类(Marino、Salakhutdinov和Gupta 2017)。对于基于会话的推荐,我们首先根据历史会话序列构造有向图。在会话图的基础上,GNN能够捕获项的转换,并相应地生成精确的项嵌入向量,这是传统的顺序方法(如基于MC和基于RNN的方法)难以揭示的。基于精确的项嵌入向量,提出的SR-GNN构造了更可靠的会话表示,并可以推断出下一次点击的项。
图1:建议的SR-GNN方法的工作流程。我们将所有会话序列建模为会话图。然后,对每个会话图逐个进行处理,并通过门图神经网络得到结果节点向量。在此之后,使用注意力网将每个会话表示为该会话的全局偏好和当前兴趣的组合。最后,我们预测每个会话中每个项目显示为下一个单击项目的概率。
图1:建议的SR-GNN方法的工作流程。我们将所有会话序列建模为会话图。然后,对每个会话图逐个进行处理,并通过门图神经网络得到结果节点向量。在此之后,使用注意力网将每个会话表示为该会话的全局偏好和当前兴趣的组合。最后,我们预测每个会话中每个项目显示为下一个单击项目的概率。

图1说明了建议的SRGNN方法的工作流程。首先,所有会话序列都被建模为有向会话图,其中每个会话序列都可以看作一个子图。然后依次对每个会话图进行处理,通过门图神经网络得到每个会话图中所有节点的潜在向量。之后,我们将每个会话表示为用户对该会话的全局偏好和当前兴趣的组合,其中全局会话嵌入向量和局部会话嵌入向量都由节点的潜在向量组成。最后,对于每个会话,我们预测每个项目成为下一次点击的概率。在真实数据集上进行的大量实验证明了该方法的有效性。这项工作的主要贡献概括如下:

  • 我们将分离的会话序列建模为图形结构的数据,并使用图神经网络来捕获复杂的项目转换。据我们所知,它为基于会话的推荐场景中的建模提供了一个新的视角。
  • 为了生成基于会话的推荐,我们不依赖于用户表示,而是使用会话嵌入,该会话嵌入仅可以基于每个单独会话中涉及的项目的潜在向量来获得。
  • 在真实数据集上进行的大量实验表明,SR-GNN的性能明显优于最先进的方法。

为了使我们的结果完全可重现,所有相关源代码都已在https://github.com/cripac-digi/sr-gnn上公之于众。本文的其余部分组织如下。我们在第二节回顾了以前的相关文献。第三节提出了一种基于图神经网络的基于会话的推荐方法。第四节给出了详细的实验结果和分析。最后,我们在第五节对本文进行了总结。

2 Related Work

在这一部分中,我们回顾了基于会话的推荐系统的一些相关工作,包括传统方法、基于马尔可夫链的序贯方法和基于RNN的方法。然后,我们介绍了图上的神经网络。

传统的推荐方法。矩阵分解(Mnih and Salakhutdinov,2007;Korn,Bell,and V Olinsky,2009;Korn,Bell,and VOlinsky,2011)是推荐系统的一般方法。其基本目标是将用户-项目评分矩阵分解为两个低阶矩阵,每个矩阵代表用户或项目的潜在因素。它不太适合基于会话的推荐,因为用户偏好只通过一些积极的点击来提供。基于项目的邻域方法(Sarwar等人。2001)是一种自然的解决方案,其中根据同一会话中的共同出现来计算项目相似度。这些方法难以考虑项目的顺序,并且仅基于最后一次点击来生成预测。

在此基础上,提出了基于马尔可夫链的序贯方法,在此基础上预测用户的下一步行为。将推荐生成视为序列优化问题,Shani、Brafman和Heckerman(2002)使用马尔可夫决策过程(MDP)求解。通过对用户的个性化概率转移矩阵进行因式分解,FPMC(Rendle,Freudenthaler,and Schmidt-Thieme 2010)对每两个相邻点击之间的顺序行为进行建模,并为每个序列提供更准确的预测。然而,基于马尔可夫链的模型的主要缺点是它们独立地结合过去的分量。这种独立性假设过于强烈,从而限制了预测的准确性。

基于深度学习的方法。最近,一些预测模型,特别是语言模型(Mikolov et al.。2013)是基于神经网络提出的。在众多的语言模型中,递归神经网络(RNN)在句子建模方面是最成功的(Mikolov等人)。2010),并被广泛应用于各种自然语言处理任务中,例如机器翻译(Cho et al.。2014)、对话机(Serban等人。2016),以及图片说明(毛等人。(2015年)。RNN还被成功地应用于许多应用中,例如顺序点击预测(Zhang et al.。2014)、位置预测(Liu等人。2016),以及下一篮子推荐(Yu等人。2016)。

对于基于会议的推荐,(Hidasi等人)的工作。2016a)提出了递归神经网络方法,然后扩展到具有并行RNN的体系结构(Hidasi等人。2016b),其可以基于被点击项目的点击和特征对会话进行建模。在此基础上,提出了基于这些RNN方法的一些工作。Tan,Xu,and Liu(2016)通过使用适当的数据增强技术并考虑用户行为的时间变化来增强递归模型的性能。Jannach和Ludewig(2017)将递归方法和基于邻域的方法结合起来,将序列模式和共现信号混合在一起。Tuan and Phuong(2017)将会话点击与内容特征(如项目描述和项目类别)相结合,通过使用三维卷积神经网络生成推荐。此外,列表式深度神经网络(Wu And Yan 2017)对每个会话中有限的用户行为进行建模,并使用列表排序模型为每个会话生成推荐。此外,一种具有编解码器体系结构的神经注意推荐机,即NARM(Li et al.。2017a),利用RNN上的注意力机制捕捉用户的顺序行为特征和主要目的。然后,建立了短期注意优先模型(STAMP)(Liu et al.。2018),建议使用简单的MLP网络和注意力网络,以有效地捕获用户的一般兴趣和当前兴趣。

图上的神经网络。目前,神经网络已被用于生成图形结构数据的表示,例如社会网络和知识库。扩展了单词2vec(Mikolov等人。2013),一种无监督算法DeepWalk(Perozzi,Al-Rfou和Skiena 2014)被设计用于基于随机游走来学习图节点的表示。在DeepWalk之后,无监督网络嵌入算法行(Don et al.。Node2vec(Grover和Leskovec,2016)是最具代表性的方法。另一方面,经典的神经网络CNN和RNN也被部署在图结构的数据上。(Duvenaud等人)。2015)引入了一种卷积神经网络,它可以直接对任意大小和形状的图形进行运算。一种可伸缩的方法(Kipf和Welling2016)通过谱图卷积的局部近似选择卷积结构,这是一种有效的变体,也可以直接在图上操作。但是,这些方法只能在无向图上实现。以前,以递归神经网络的形式,图神经网络(GNNs)(Gori,Monfardini和Scarselli 2005;Scarselli et al.。2009)被建议在有向图上操作。作为GNN的改进,门控GNN(Li et al.。2015)使用门控递归单元并使用时间反向传播(BPTT)来计算梯度。近年来,GNN被广泛应用于不同的任务,如脚本事件预测(Li,Ding,Liu 2018),态势识别(Li等人)。2007b),以及图像分类(Marino、Salakhutdinov和Gupta 2017)。

3 The Proposed Method

在这一部分中,我们介绍了将图神经网络应用到基于会话的推荐中的SR-GNN。我们首先对问题进行了形式化描述,然后解释了如何从会话构造图,最后对SR-GNN方法进行了详细的描述。

基于会话的推荐旨在仅根据用户当前的连续会话数据来预测用户下一步将点击哪一项,而无需访问长期偏好配置文件。在这里,我们给出这个问题的一个公式,如下所示。

在这里插入图片描述
Constructing Session Graphs
在这里插入图片描述
每个会话序列s可以被建模为有向图Gs=(Vs,Es)。在该会话图中,每个节点表示一个项目VS,I∈V。每条边(VS,I−1,VS,I)∈Ess表示用户在会话s中单击项目VS,i在VS,i−1之后。由于序列中可能重复出现几个项目,因此我们为每个边分配归一化权重,其计算方法是边的出现次数除以该边的起始节点的出度。我们将每个项目v∈V嵌入到一个统一的嵌入空间中,节点向量v∈rd表示通过图神经网络学习的项目v的潜在向量,其中d是维数。基于节点向量,每个会话s可以由嵌入向量s表示,嵌入向量s由在该图中使用的节点向量组成。

Learning Item Embeddings on Session Graphs

然后,我们介绍如何通过图神经网络获得节点的潜在向量。香草图神经网络由Scarselli等人提出。 (2009年),扩展了用于处理图结构数据的神经网络方法。 Li等。 (2015)进一步介绍了门控循环单元,并提出了门控GNN。图神经网络非常适合基于会话的推荐,因为它可以自动考虑富节点连接而提取会话图的特征。我们首先演示会话图中节点向量的学习过程。正式地,对于节点vs,iof图Gs
,更新函数如下所示:

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

这里,As被定义为两个邻接矩阵A(Out)s和A(In)s的连接,它们分别表示会话图中传出和传入边的加权连接。例如,考虑会话s=[v1,v2,v3,v2,v4],相应的图G和矩阵AS如图2所示。请注意,SR-GNN可以为各种构造的会话图支持不同的连接矩阵A。如果使用不同的会话图构造策略,则连接矩阵AS将相应地改变。此外,当存在节点的内容特征,如描述和分类信息时,该方法可以进一步推广。具体地说,我们可以将特征与节点向量连接起来来处理这些信息。

对于每个会话图Gs,门限图神经网络同时处理节点。如公式中所述。(1)在矩阵AS给出的限制下,用于不同节点之间的信息传播。具体地说,它提取邻域的潜在向量,并将它们作为输入输入到图神经网络中。然后,两个门,即更新门和复位门,分别决定要保留和丢弃哪些信息。之后,我们通过先前状态、当前状态和复位门构造候选状态,如公式中所述。(4)。然后,在更新门的控制下,最终状态是先前隐藏状态和候选状态的组合。在更新会话图中的所有节点直至收敛后,即可得到最终的节点向量。

Generating Session Embeddings

以往的基于会话的推荐方法总是假设每个会话都存在不同的潜在用户表征。相反,所提出的SR-GNN方法不对该向量做任何假设。相反,会话由会话中涉及的节点直接表示。为了更好地预测用户的下一次点击,我们计划开发一种策略,将会话的长期偏好和当前兴趣结合起来,并将这种组合嵌入作为会话嵌入。

将所有会话图馈入门控图神经网络后,我们获得所有节点的向量。然后,为了将每个会话表示为嵌入向量s∈Rd,我们首先考虑会话的局部嵌入s1.
在这里插入图片描述
会话session就是所有的item的向量集合吗,但是维度对不上啊

然后,我们通过汇总所有节点向量来考虑全局嵌入sof会话图Gs。考虑到这些嵌入中的信息可能具有不同的优先级,我们进一步采用软注意力机制来更好地表示全局会话偏好:
在这里插入图片描述
si 就是vn,和全部的图向量合到一起的意义是什么啊

Making Recommendation and Model Training

在获得每个会话的嵌入之后,我们通过将其嵌入vii乘以会话表示sh来计算每个候选项viˆV的得分∈zi,其可以被定义为:

在这里插入图片描述
在这里插入图片描述
其中ˆz∈Rm表示所有候选项目的推荐得分,ˆy∈Rm表示在会话s中出现下一次点击的节点的概率。
对于每个会话图,损失函数被定义为预测和基本事实的交叉熵。可以这样写:

在这里插入图片描述
其中y表示基本事实项的一次热编码向量。

最后,我们使用时间反向传播(BPTT)算法对所提出的SR-GNN模型进行训练。请注意,在基于会话的推荐方案中,大多数会话的长度相对较短。因此,建议选择相对较少的训练步数,防止过度适应。

4 Experiments and Analysis

在本节中,我们首先描述实验中使用的数据集、比较方法和评估指标。然后,我们将所提出的SR-GNN与其他比较方法进行了比较。最后,对不同实验设置下的SRGNN进行了详细的分析。

Datasets
我们在YooChoose1和Diginetica2这两个真实世界的代表性数据集上对所提出的方法进行了评估。Y ooChoose数据集是从2015年RecSys挑战赛中获得的,该挑战赛包含了6个月内电商网站上的一系列用户点击量。Diginetica数据集来自2016年CIKM Cup,其中只使用了它的交易数据。

为了公平比较,下面(Li等人)。2017a;刘等人。2018),我们过滤掉所有长度为1的会话和在两个数据集中出现少于5次的项目。其余的7981,580个会议和37,483个项目构成了YooChoose数据集,204,771个会议和43097个项目组成了Diginetica数据集。此外,类似于(Tan,Xu,and Liu 2016),我们通过分割输入序列来生成序列和相应的标签。具体地说,我们将后续几天的会话设置为YooChoose的测试集,将后续几周的会话设置为Diginetiva的测试集。例如,对于输入会话s=[vs,1,vs,2,.。。。,vs,n],生成一系列序列和标号([vs,1],vs,2),([vs,1,vs,2],vs,3),.。。。,([vs,1,vs,2,.。。。,vs,n−1],vs,n),其中[vs,1,vs,2,.。。。,vs,n−1]是生成的序列,而vs,n表示下一次点击的项目,即序列的标签。下面是(Li et al.。2017a;刘等人。2018),我们还使用了YoChoose训练序列的最新分数1/64和1/4。表1汇总了数据集的统计数据。

在这里插入图片描述
评估指标

以下指标用于评估比较的方法。

P@20 (Precision):被广泛用作预测准确性的衡量标准。它代表了正确推荐的项目在排名前20的项目中所占的比例。

MRR@20(Mean Reciprocal Rank) :是正确推荐的项目的倒数排名的平均值。当排名超过20时,倒数排名设置为0。MRR度量考虑推荐排名的顺序,其中较大的MRR值表示排名列表顶部的正确推荐。

Parameter Setup
遵循前面的方法(Li et al.。2017a;刘等人。2018),我们为两个数据集设置了潜在向量的维数d=100。此外,我们在验证集上选择其他超参数,该验证集是训练集的随机10%子集。所有参数都使用均值为0且标准差为0.1的高斯分布进行初始化。使用小批量ADAM优化器对这些参数进行优化,初始学习率设置为0.001,每3个epochs后将衰减0.1%。此外,批量大小和L2惩罚分别设置为100%和10%−5。

Comparison with Baseline Methods
为了验证该模型的整体性能,我们将其与其他最新的基于会话的推荐方法进行了比较。表2显示了P@20和MRR@20的整体性能,其中最好的结果以粗体突出显示。请注意,如(Li et al.。2017a),由于内存不足,无法初始化FPMC,未报告YooChoose 1/4上的性能。
在这里插入图片描述
SR-GNN将分离的会话序列聚合成图结构的数据。在该模型中,我们既考虑了全局会话偏好,又考虑了局部利益。实验结果表明,SR-GNN方法在P@20和MRR@20三个数据集上取得了最好的性能,验证了该方法的有效性。
对于POP、SPOP等传统算法,其性能相对较差。这种简单的模型完全基于重复出现的项目或连续的项目进行推荐,这在基于会话的推荐场景中是有问题的。尽管如此,S-POP的表现仍然优于其竞争对手,如POP、BPR-MF和FPMC,这表明了会话上下文信息的重要性。与基于马尔可夫链的FPMC相比,Item-KNN取得了更好的效果。请注意,ItemKNN仅利用项目之间的相似性,而没有考虑顺序信息。这表明传统MC方法大多依赖于连续项独立的假设是不现实的。
对于POP、SPOP等传统算法,其性能相对较差。这种简单的模型完全基于重复出现的项目或连续的项目进行推荐,这在基于会话的推荐场景中是有问题的。尽管如此,S-POP的表现仍然优于其竞争对手,如POP、BPR-MF和FPMC,这表明了会话上下文信息的重要性。与基于马尔可夫链的FPMC相比,Item-KNN取得了更好的效果。请注意,ItemKNN仅利用项目之间的相似性,而没有考虑顺序信息。这表明传统MC方法大多依赖于连续项独立的假设是不现实的。
基于神经网络的方法,如NARM和STAMP,其性能优于传统方法,显示了在该领域采用深度学习的力量。短期/长期记忆模型,如GRU4REC和NARM,使用循环单位来捕捉用户的一般兴趣,而STAMP则通过利用最后单击的项来改善短期记忆。这些方法明确地对用户的全局行为偏好进行建模,并考虑用户之前的操作和下一次点击之间的转换,从而获得优于这些传统方法的性能。然而,它们的性能仍然不如所提出的方法。与NARM和STAMP等最先进的方法相比,SR-GNN进一步考虑了会话中项之间的转换,从而将每个会话建模为图,从而可以捕捉用户点击之间更复杂和隐式的联系。而在NARM和GRU4REC中,它们显式地为每个用户建模,并通过分离的会话序列获得用户表示,而忽略了项之间可能的交互关系。因此,该模型对会话行为的建模能力更强。

此外,SR-GNN采用软注意机制生成会话表示,该会话表示可以自动选择最重要的项转移,忽略当前会话中的噪声和无效用户行为。相反,Stamp只使用上次单击的项目和之前操作之间的过渡,这可能还不够。其他的RNN模型,如GRU4REC和NARM,也不能在传播过程中选择有效的信息。
在这里插入图片描述
Comparison with Variants of Connection Schemes
提出的SR-GNN方法可以灵活地构建图中项目之间的连接关系。由于会话中的用户行为是有限的,因此我们在本节中提出另外两个连接变体,以增加每个会话图中项目之间的有限关系。首先,我们将所有会话序列聚合在一起,并将它们建模为一个有向整体项目图,以下称为全局图。在全局图中,每个节点表示一个唯一的项,每条边表示从一个项到另一个项的有向转换。其次,我们将一个会话内项目之间的所有高阶关系都显式地建模为直接连接。综上所述,提出了以下两种连接方案来与SRGNN进行比较:

提出的SR-GNN方法可以灵活地构建图中项目之间的连接关系。由于会话中的用户行为是有限的,因此我们在本节中提出另外两个连接变体,以增加每个会话图中项目之间的有限关系。首先,我们将所有会话序列聚合在一起,并将它们建模为一个有向整体项目图,以下称为全局图。在全局图中,每个节点表示一个唯一的项,每条边表示从一个项到另一个项的有向转换。其次,我们将一个会话内项目之间的所有高阶关系都显式地建模为直接连接。综上所述,提出了以下两种连接方案来与SRGNN进行比较:

  • 具有归一化全局连接的SR-GNN(SR-GNN-NGC)在SR-GNN的基础上用从全局图中提取的边权重来代替连接矩阵。
  • 具有全连接的SR-GNN(SR-GNN-FC)用布尔权表示所有的高阶关系,并将其对应的连接矩阵附加到SR-GNN的连接矩阵上。

图3显示了不同连接方案的结果。从图中可以看出,所有三种连接方案的性能都比最先进的STAMP和NARM方法更好或几乎相同,证实了将会话建模为图形的有用性。
与SR-GNN相比,对于每个会话,SR-GNNNGC除了考虑当前会话中的项目外,还考虑了其他会话的影响,从而降低了当前会话图中连接到度较高的节点的边的影响。这种融合方法显著影响当前会话的完整性,特别是当图中边的权重变化时,导致性能下降。

在这里插入图片描述
对于SR-GNN和SR-GNN-FC,前者只建模连续项之间的精确关系,而后者则进一步显式地将所有高阶关系视为直接连接。据报道,SR-GNN-FC的性能比SR-GNN差,尽管两种方法的实验结果差别不大。如此微小的结果差异表明,在大多数推荐场景中,并不是每个高阶转换都可以直接转换为直接连接,高阶项目之间的中间阶段仍然是必需的。例如,考虑到用户在浏览网站时浏览了以下页面:A→B→C,由于A和C之间没有直接连接,因此不适合在A之后直接推荐C页,而不是中间页B。

Comparison with Different Session Embeddings
我们将会话嵌入策略与以下三种方法进行了比较:(1)仅局部嵌入(SR-GNNL);(2)带平均池的全局嵌入(SR-GNNA VG);(3)带注意力机制的全局嵌入(SR-GNN-A TT)。图4给出了采用三种不同嵌入策略的方法的结果。

从图中可以看出,混合嵌入方法SR-GNN在所有三个数据集上都取得了最好的结果,这验证了显式地将当前会话兴趣与长期偏好相结合的重要性。此外,数据显示SR-GNN-ATT在三个数据集上的平均合并性能优于SR-GNN-AVG。这表示会话可能包含一些不能单独处理的嘈杂行为。此外,研究还表明,注意机制有助于从会话数据中提取有意义的行为,从而构建长期偏好。
请注意,SR-GNN-L是SRGNN的降级版本,其性能仍然优于SR-GNN-A VG,并且性能几乎与SR-GNN-A TT相同,支持当前兴趣和长期偏好对基于会话的推荐至关重要。

Analysis on Session Sequence Lengths

我们进一步分析了不同模型处理不同长度会话的能力。为了进行比较,我们将YooChoose 1/64和Diginetica的会话分为两组,其中“Short”表示会话长度小于或等于5,而每个会话的“Long”项多于5项。选择枢轴值5是因为它是最接近所有数据集中总会话平均长度的整数。在Y ooChoose数据上,属于短组和长组的会话百分比分别为0.701和0.299;在Diginetica数据上,属于短组和长组的会话百分比分别为0.764和0.236。对于每种方法,我们在表3中以P@20的形式报告评估结果。

我们提出的SR-GNN及其变体在以下方面表现稳定
两个具有不同会话长度的数据集。它证明了
所提出的方法的优越性能和
图神经网络在基于会话的推荐中的适应性。相反,STAMP的业绩
在短组和长组中变化很大。STAMP(Liu et al.
2018)根据复制动作来解释这样的差异。它采用的是注意机制,所以复制的项目
在获得用户表示时可以忽略。与STAMP类似,在Y oochoose上,NARM在短组上实现了很好的性能,但性能下降很快
随着会期的延长,这部分是
因为RNN模型在应对长序列时有困难。

然后分析了SR-GNN-L、SRGNN-ATT和SR-GNN在不同会话表示下的性能。与STAMP和NARM方法相比,这三种方法都取得了令人满意的结果。这可能是因为基于图神经网络的学习框架,我们的方法可以得到更精确的节点向量。这种节点嵌入不仅能捕捉到节点的潜在特征,而且能对节点连接进行全局建模。在此基础上,SRGNN的变种之间的性能是稳定的,而两种最先进的方法在短数据集和长数据集上的性能有很大的波动。此外,表中还显示,SR-GNN-L虽然只使用本地会话嵌入向量,但也能达到较好的效果。这可能是因为SR-GNN-L还隐式地考虑了会话图中一阶和高阶节点的属性。图4也验证了这些结果,其中SR-GNN-L和SR-GNNATT都达到了接近最优的性能。

然后分析了SR-GNN-L、SRGNN-ATT和SR-GNN在不同会话表示下的性能。与STAMP和NARM方法相比,这三种方法都取得了令人满意的结果。这可能是因为基于图神经网络的学习框架,我们的方法可以得到更精确的节点向量。这种节点嵌入不仅能捕捉到节点的潜在特征,而且能对节点连接进行全局建模。在此基础上,SRGNN的变种之间的性能是稳定的,而两种最先进的方法在短数据集和长数据集上的性能有很大的波动。此外,表中还显示,SR-GNN-L虽然只使用本地会话嵌入向量,但也能达到较好的效果。这可能是因为SR-GNN-L还隐式地考虑了会话图中一阶和高阶节点的属性。图4也验证了这些结果,其中SR-GNN-L和SR-GNNATT都达到了接近最优的性能。
在这里插入图片描述

5 Conclusions

在用户偏好和历史记录难以获取的情况下,基于会话的推荐是必不可少的。提出了一种新的基于会话的推荐体系结构,将图模型融入到会话序列表示中。该方法不仅考虑了会话序列的复杂结构和项目间的转换,而且提出了一种结合会话的长期偏好和当前兴趣的策略,以更好地预测用户的下一步动作。综合实验证明,该算法的性能始终优于其他最先进的方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值