Generate What You Prefer: Reshaping Sequential Recommendation via Guided Diffusion (NeurIPS23 中科大)

论文
代码

Yang Z, Wu J, Wang Z, et al. Generate What You Prefer: Reshaping Sequential Recommendation via Guided Diffusion[J]. Advances in Neural Information Processing Systems, 2024, 36.

问题

尽管判别式推荐模型已经统治推荐系统很多年,其中有两个问题难以解决:

(1)过于简化用户行为 —— 用户在与推荐系统交互后,会在脑海中自然形成理想items,然后在推荐列表中挑选和理想物品最匹配的进行交互。此理想物品是用户在交互后自然形成的,准确反映了用户兴趣,很难存在于候选物品集中。

(2)基于判别式的推荐模型只能用于区分观测到的正样本与采样得到的负样本,无法对理想物品进行准确建模。

为解决上述问题,我们必须建模理想物品的生成过程,这是判别式框架无法做到的。因此,我们提出DreamRec,将推荐任务重塑为理想物品的生成任务,并利用条件扩散模型,直接建模理想物品生成过程。

DreamRec方法

给定用户历史交互的items序列,通常每个item都会转化为对应的向量表示:
e 1 : n − 1 = [ e 1 , e 2 , . . . , e n − 1 ] e_{1:n-1} = [e_1,e_2,...,e_{n-1}] e1:n1=[e1,e2,...,en1]

该方法中,理想items的生成分布被建模为
p θ ( e n 0 ∣ e 1 : n − 1 ) p_\theta(e_n^0|e_{1:n-1}) pθ(en0e1:n1)

注意此分布并非给定交互序列后,预测对候选集种物品推荐的概率分布,这是基于判别式推荐系统的常见建模方式。此分布描绘了给定交互序列后,生成理想items需要服从的分布。如果此分布可以准确建模,那么我们将可以从中直接采样出理想items。在DreamRec中,此分布通过条件扩散模型进行学习。
在这里插入图片描述

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值