Adversarial Personalized Ranking for Recommendation(个人笔记)

上周总结了一篇关于CPR_loss的文章,指导老师提出CPR_loss在采集正负样本标的标准和生成对抗学习方面有一些相似处,所以这周我就找到这一篇文章并加以总结。有趣的是,这一篇文章也是何向南老师组于2018年发表于SIGIR,下文我们简称为APR。

论文链接:https://arxiv.org/abs/1808.03908

代码链接:hexiangnan/adversarial_personalized_ranking(Tensorflow版)
                  https://github.com/nuonuoxiaopangdian/APR-PyTorch (Pytorch版)

问题:用 BPR 对广泛使用的 MF 模型进行优化会产生一个不健壮的推荐模型,尤其是模型非常容易有道模型参数的对抗扰动的影响。

贡献:提出了一种新的优化框架,即为APR。APR 通过进行对抗性训练来增强 BPR ,来提高模型的鲁棒性。


1. 准备工作

1.1.Matrix Factorization(矩阵分解)

MF 的核心思想就是将 user 和 item 分别表示成 embedding 向量, 通过 user 和 item 的内积当做 user 对 item 的喜好程度,其公式为:\widehat{y}_{ui}\left ( \Theta \right )= p_{u}^{T}q_{i}

1.2.Bayesian Personalized Ranking(贝叶斯个性化排名)

BPR模型的目标函数如下定义,(u,i,j)三元组作为一个样本,i 为正样本,j 为负样本,模型优化尽量希望(u,i)的打分 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值