WSDM 2022 推荐系统论文阅读(上)

声明:本论文阅读笔记主要是对论文摘要的概括,评论仅代表个人的阅读观点,欢迎大家在评论区讨论!

1. A Peep into the Future: Adversarial Future Encoding in Recommendation

公司/学校:微信

摘要:提出要让推荐模型可以利用future feature。文章设计了一个对抗学习网络,判别器输入common feature和future feature,输出用户物品对的判别;生成器则用来生成含有未来信息的common feature,用于推荐模型。

评论:future feature是一个蛮新颖的topic的。我目前理解的是future feature类似于那些离线拿不到的线上特征,然后在线上推理的时候想要应用这些特征。

技术分类:对抗学习、知识蒸馏

代码:https://github.com/modriczhang/AFE

2. C2-CRS: Coarse-to-Fine Contrastive Learning for Conversational Recommender System

公司/学校:人大(RUCAI,Xin Zhao)

摘要:在对话推荐中,融合外部信息是推断用户兴趣的一个重要方法。但是,当前的多部分方法是针对于某一类外部信息(KG或者文本)来设计的,缺乏一个通用的多种类外部信息的建模和融合方法。这篇文章设计了一个由粗糙到细致的对比学习框架来提升数据的语义融合效果。具体来说就是先提取各类数据的语义信息,然后设计一个粗粒度和一个细粒度的出来过程来对语义信息进行对其。

评论:虽然说的是多种外部信息,但是主要还是基于文本的信息:KG、对话历史和评论。

技术分类:对比学习

代码:https://github.com/RUCAIBox/WSDM2022-C2CRS

3. Choosing the Best of Both Worlds: Diverse and Novel Recommendations through Multi-Objective Reinforcement Learning

公司/学校:诺维萨德大学、谷歌、山东大学

摘要:对于序列推荐和会话推荐来说,同时兼顾准确性和新颖性是困难的,尤其是这些目标在某种意义上是相互冲突的。本文使用了一个额外的强化学习层,可以同时兼顾准确性、多样性、新颖性这三个目标。并且本文提出的方法可以适配于多个序列推荐和会话推荐模型。

评论:利用强化学习解决多样性问题倒还是蛮常见的,但是本文提出了一个兼顾三者的同一框架还是比较新颖的。

技术分类:强化学习、序列推荐、会话推荐、新颖性

代码:无

4. Contrastive Learning for Representation Degeneration Problem in Sequential Recommendation

公司/学校:昆士兰大学(Hongzhi Yin)

摘要:本文先是发现了一个__表征退化__的问题:序列推荐模型倾向于学习到非均匀的物品表征向量,这使得不同的物品表征间具有高度的语义相似。作者收到对比学习中均匀性特点的启发,提出了一个正则化的方法来解决这个表征退化的问题。此外,之前的CL大多是样本级的数据增强方法,本文则提出了一个模型级别的数据增强方法,来更好地保证语义不变形。最后提出了一个新的采样方法来选择困难正样本。

评论:这篇文章应用CL是非常自然的,没有那种强行使用。主要在于本文发现的表征退化问题是很关键的。从本文实验来看,在会话/序列推荐中,学习一个好的item embedding影响还是很大的。本文提出的对比学习正则化方法应该也可以直接应用到其他的序列推荐当中(虽然文章没做这个实验)

技术分类:序列推荐、对比学习

代码:无

5. Contrastive Meta Learning with Behavior Multiplicity for Recommendation

公司/学校:香港大学(Chao Huang)、南方科技大学、百度(Dawen Yin)

摘要:最近多行为推荐的研究逐渐兴起,但是现有的多行为推荐方法存在两个问题:1.有的行为数据非常稀疏(如购买行为);2.现有的方法只能捕获到固定的用户多行为模式。因此,本文提出了一种多行为对比学习框架来使得不同行为的知识可以互相迁移–解决某些目标数据稀疏的问题。此外,提出了一个对比元学习网络来捕获用户多行为模式的异质性。

评论:第一个motivation倒是很solid,但是是不是还可以用多任务或者迁移学习的方法来解决?第二个motivation没有太看明白。

技术分类:多行为推荐、对比学习、元学习、异质图推荐

代码:https://github.com/weiwei1206/CML

6. It Is Different When Items Are Older: Debiasing Recommendations When Selection Bias and User Preferences Are Dynamic

公司/学校:阿姆斯特丹大学

摘要:现有的消除选择偏差(热门偏差)的方法都将偏差视为是静态的。然而,物品的热度和用户的偏好其实都是随时间变化的。本文从理论上证明了动态变化的物品热度和用户偏好会导致现有的消偏方法(IPS,无偏的)有偏。然后,提出了一个基于IPS的改进方法来考虑物品热度和用户偏好的动态变化。

评论:这个其实一直都是我比较想做的。这篇文章是第一个在动态偏差这个方向进行尝试的。我的想法是,动态偏差因为和时间相关,最应该是和序列推荐联系起来的。而本文只是在协同过滤上做了尝试。

技术分类:选择偏差

代码:https://github.com/BetsyHJ/DANCER

7. Enumerating Fair Packages for Group Recommendations

公司/学校:东京大学

摘要:package-to-group推荐是要给一组用户推荐一组物品,在这一类推荐中公平性是一个非常重要的指标。然而,当前的大部分方法都是对推荐一个package去进行优化,输出的也只有一个package,但是合理的推荐应该是给出一个推荐列表,在这里就一个是很多个package。因此本文为了解决这个问题,提出了一个枚举公平package的方法。

评论:这是一个之前没有关注过的问题,看到后只想到了一个东西–组合爆炸。对package了解比较少,不知道和bundle推荐的区别是什么。

技术分类:公平性、package推荐

代码:https://github.com/joisino/fape

8. External Evaluation of Ranking Models under Extreme Position-Bias

公司/学校:亚马逊

摘要:本文提出了一个__极端位置偏差__:当只能收集到排名前几的反馈数据时,就会出现极端偏差的问题。文中举例在音乐商店会出现这种情况,因为通常只有很少的物品会曝光给用户。作者认为在这种极端偏差情况下,之前提出的消偏方法是不适用的。因此,提出了一个外部估计模型来为一个排序模型准确预估线下的表现。

评论:这个问题还是很有趣的,但是感觉怎么就算是极端偏差不是很好界定,让我想到了开屏推荐这一类top1推荐。其次,为什么之前的消偏方法不能用不是很理解。

技术分类:位置偏差

代码:无

9. Fighting Mainstream Bias in Recommender Systems via Local Fine Tuning

公司/学校:德州农工大学(Ziwei Zhu)

摘要:这篇文章研究的是__主流偏差__:非主流用户(不具有大众兴趣的用户)难以得到好的推荐结果。本文先是基于异常检测技术,提出了四种检测主流和非主流用户的方法。然后证明了传统推荐模型确实是会产生主流偏差的。最后,提出了加权损失和分布校准的全局消偏方法,以及一个局部fine-tune的方法。

评论:主流偏差其实在去年WSDM的一篇NAECF中有提过,但是那个论文是要结合评论数据的。这一篇算是第一个通过不引入外部数据消除主流偏差的方法。其实这些年来大家大多都关注物品侧的偏差,如热门偏差、曝光偏差等,而用户侧的主流偏差、趋同偏差其实得到的关注很少。

技术分类:主流偏差

代码:https://github.com/Zziwei/Measuring-Mitigating-Mainstream-Bias

10.Heterogeneous Global Graph Neural Networks for Personalized Session-based Recommendation

公司/学校:京东、同济大学

摘要:当前绝大多数会话推荐方法遵循匿名设置,即不考虑一个用户的其他会话记录。而当前个性化会话推荐(考虑用户其他会话记录)方法没有建模其他用户会话记录中的物品转移(transition,这个不好翻译)模式。因此,本文提出一种考虑全部(所有用户的)会话记录中物品转移模式的会话推荐方法。首先根据物品转移、用户物品交互、全局物品共现构建异质图,然后设计了一个异质图神经网络(HGNN)来学习用户的长期偏好。最后设计了一个个性化会话编码器来融合用户的长期兴趣和当前会话中的短期兴趣。

评论:个人认为如果会话推荐变为非匿名设置,是否和序列推荐的场景就很相似了?其次,文中说是构建了异质图,但其实可以简单说成是二部图更好。

技术分类:会话推荐、异质图推荐

代码:无

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值