12.Session] Dual Sparse Attention Network For Session-based Recommendation论文解读

一、提出背景

作者提了两个问题

  1. 以往工作直接用 last click item embedding 用来表示 current preference 不妥
  2. session 中所有的 item 并不一定能反映用户偏好,有些交互可能是因为误触、浏览无关的促销广告等行为产生的

对于 问题1,例子如下
在这里插入图片描述
例子中使用最后一个 item 预测的物品集合里面不存在真实的 target item

解决方法:

  1. 论文提出了一个可学习的 embedding 用来刻画用户的 current preference,称为 target embedding
  2. 论文引入了 alpha-entmax 函数,其中 alpha 也是可习得的参数,用来消除小权重 item 的影响。考虑到小权重 item 的语义正是那些不能反映用户偏好的 item。(这里作者用到了一个新的激活函数,当然不是作者提出的。通常我们采用softmax来做最后的激活函数,或者作为注意力机制的归一化函数。但是softmax的归一化方式会为向量中的每一个元素都赋值,即他不会存在0的值,顶多是很小,比如10e-5等。而sparsemax是2016年提出的softmax的改进版,他可以得到稀疏的结果,即让一些值为0,它和softmax具有相似的性能,但具有选择性、更紧凑、注意力集中。正如背景中作者所说的,会话中包含的商品可能存在噪声,比如误点击的,而softmax的非零概率可能会为无用数据分配权重,从而影响找到相关项目的能力,并且一些本来分配高权重的位置也会有“缩水”。 如下如所示,sparsemax相比如softmax是更硬的,在过大过小的地方对应1和0,即可以得到稀疏解。)
    在这里插入图片描述

二、贡献

  • 提出了 DSAN 这个新框架,它由 self-attention 和 vanilla attention 组成。通过 item-level collaborative information 学习 target embedding ,使用不同的 query, key and value 向量作为高阶信息去建模session推荐。
  • 引入基于上下文的 adaptively sparse attention mechanism 去寻找 session 中可能无关的 item,保留高权重给有关 item。
  • 实验表示达到了最优的效果。

三、Model整体架构

在这里插入图片描述
下面对每一个部分进行详细讲解

首先论文引入了两个 attention 机制,第一个称为 Sparse Attention Network,第二个是 Vanilla Attention Network,两个 attention network 是串联机制,最终产生 session 的 embedding 和 current preference embedding(论文中称为 target embedding)。

注意:这里产生的 session embedding 是考虑到 current preference embedding 的,以往工作大多都直接对 item 进行 embeedding,然后再聚合得到 session 的 embedding。而这篇文章在计算 session embedding 的过程中加入了 current preference embedding,同时训练两个 embedding

得到 session embedding 之后,我们将它和原始的 item embedding 结合起来,进行预测,即可得到结果

具体而言,生成 session embedding 的步骤如下

  1. 把 input session 转换成两个向量,一个是 item embedding,另一个是 positional embedding,存储着 item 的位置信息
    在这里插入图片描述

  2. 把 item embedding 和 positional embedding 结合起来,得到每个 item 的表示,此时属于预处理部分,没有输入到网络中
    在这里插入图片描述
    需要注意的是,这里有一个红色的 Cs,它是我们要计算的 target embedding,能够反应 current preference embedding

  3. 输入第一个 attention,得到 item-level 的信息
    在这里插入图片描述

  4. 继续输入第二个 attention,最终通过聚合得到 session 的表示 hs(是一个值)
    在这里插入图片描述

  5. 进一步结合 target embedding 聚合信息
    在这里插入图片描述

  6. 进行预测
    在这里插入图片描述

下图总结了流程中出现的符号以及意义

在这里插入图片描述

下面分步骤来分析session的构造过程

3.1 初步 embedding

在这里插入图片描述
在这里插入图片描述

3.2 Target embedding learning

在这里插入图片描述

传入第一个 attention,计算 target embedding 和初步的 session embedding

在这里插入图片描述

计算公式就是使用传统的 attention 机制运用方法

在这里插入图片描述

值得注意的是,这里出现的 alpha-entmax 替代了传统的 softmax,观察它的图像我们可以知道,alpha 越大,较小的权重将越有可能直接标记为0

在这里插入图片描述

同时 alpha 这个参数也是通过 MLP 习得的

最终结果:

在这里插入图片描述

3.3 学习进一步的 session 表示

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.4 聚合信息并进行预测

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

四、模型的性能评估

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
三个变形

  • DSAN-NS 没有 target embedding
  • DSAN-NT 没有 target attention layer
  • DSAN-DA 把两个 att 变成平行结构而不是顺序结构,同时没有 target embedding

超参部分:
在这里插入图片描述
在这里插入图片描述

五、总结

本文主要针对背景汇总所述的两个问题,即会话中的最后一个点击的商品未必能反映用户的兴趣,另一方面会话中的点击可能存在噪声,因为可能存在虚假行为(点错)。

  • 针对第一个问题,作者采用学习target embedding的方式,而不是直接采用会话中最后一个点击的商品。
  • 针对第二个问题,作者采用α-entmax的激活函数,主要是通过该方法产生稀疏解,从而避免给一些不感兴趣的商品加权。这里的这个方案相当于是把原先softmax认为不太相关(权重很小)的商品直接处置为不相关(权重为0)。

通过target embedding学习到和会话中点击商品相关的表征,另一方面结合整个会话的表征来共同预测,从而避免单个商品无法反应用户偏好的问题。

六、代码实现

https://github.com/SamHaoYuan/DSANForAAAI2021

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值