Handling Information Loss of Graph Neural Networks for Session-based Recommendation KDD2020

摘要

近年来,图神经网络(GNN)由于其在各种应用中的令人信服的性能而日益受到欢迎。先前的许多研究还尝试将GNN应用于基于会话的推荐并获得了可喜的结果。但是,我们发现在这些基于GNN的基于会话的推荐方法中存在两个信息丢失问题,即有损会话编码问题和无效的远程依赖捕获问题。第一个问题是有损会话编码问题。由于从会话到图的有损编码以及消息传递期间的排列不变聚合,因此忽略了有关项目转换的一些顺序信息。第二个问题是无效的远程依赖捕获问题。由于层数有限,因此无法捕获会话中的某些远程依赖性。为了解决第一个问题,我们提出了一种无损编码方案和一种基于GRU的边缘顺序保留聚合层,该层专门设计用于处理无损编码图。为了解决第二个问题,我们提出了一个快捷方式图表关注层,该图层通过沿快捷方式连接传播信息来有效地捕获远程依赖关系。通过将两种类型的层组合在一起,我们能够构建一个不存在信息丢失问题并且在三个公共数据集上胜过最新模型的模型。

信息丢失的问题
在这里插入图片描述
第一个信息丢失问题称为丢失会话编码问题。两个不同的序列转换成同一个图

第二个信息丢失问题被称为无效的远程依赖捕获问题,其中这些基于GNN的方法不能有效地捕获所有的远程依赖。在GNN模型的每一层中,节点携带的信息沿着每一步的边传播,因此每一层只能捕获1跳关系。通过多层叠加,GNN模型可以捕捉到L-Hop关系,其中L等于层数。由于叠加更多的层并不一定会由于过拟合和过平滑问题而提高性能[12,26],因此这些GNN模型的最佳层数通常不大于3[16,23-25]。因此,模型最多只能捕获3跳关系。然而,在实际应用中,会话长度很

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值