ABPR: 利用对抗训练技术增强的BPR

正值毕业季,送给大家一首毛毛的《入海》。希望大家跃入人海,各有风雨灿烂(✪ω✪)


前言

相信大家对于经典的成对学习(Pairwise Learning)方式的推荐模型BPR[1](Bayesian Personalized Recommendation)一定不会陌生,它的基本假设是用户产生行为的项目应该排在未产生行为项目的前面。后续有许多研究工作者对其进行了改进,比如提出结合社交信息的SBPR[2],结合视觉信息的VBPR[3],以及利用深度学习技术来处理视觉信息的DVBPR[4]。今天跟大家分享的论文是ABPR,即利用对抗训练技术增强模型泛化能力的BPR

动机

众所周知,计算机视觉领域的对抗样本(带有微小的、非随机的有意为之的扰动样本)可以使得模型以较高的置信度把样本分类错误[5]。比如下图,原本属于熊猫的样本,经过增加微小的扰动后以99%的置信度分类为了长臂猿。

那么,对于推荐系统领域来说,是否对抗性样本可以使得模型的推荐性能下降呢。作者通过对比试验给出了答案。由于计算机视觉领域中输入数据为图像,图像中每个元素都是连续的,而推荐系统领域中的输入为离散的用户/项目ID,添加扰动后很可能变成了其他用户或者项目,因此不能直接给输入数据添加扰动。作者在此通过给模型参数(即用户/项目的嵌入向量)添加扰动来进行实验

通过观察上图发现,添加对抗扰动的性能要比添加随机噪声的性能下降的快很多,这就从侧面放映了BPR模型的泛化性能弱,并且容易受到参数的对抗性干扰,也侧面揭示了使用BPR进行训练的弱点。

所提框架

正如上文所述,BPR模型对于对抗样本的泛化能力弱,因此我们需要专门对对抗样本进行

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值