WSDM 2022 推荐系统论文阅读(中)

继续上一篇文章来阅读WSDM 2022中推荐系统的论文:
WSDM 2022 推荐系统论文阅读(上)

声明:本论文阅读笔记主要是对论文摘要的概括,评论仅代表个人的阅读观点,欢迎大家在评论区讨论!

1. Hierarchical Imitation Learning via Subgoal Representation Learning for Dynamic Treatment Recommendation

公司/学校:华东师范大学、华为诺亚(Ruiming Tang, Xiuqiang He)

摘要:由于在药物推荐中奖励信号难以设计,因此大多采用模仿学习技术而非RL。但是,一个病人可能会有多个病症,因此医生的用药可以序列其实是可以形成多个group,分别对应着不同的病症。但是当前模仿学习中flat policy是难以模仿医生这样一种(在意图上)分层的用药方式。因此这篇文章提出了一个分层模仿学习,用高层policy来为每个子任务设置子目标,用低层policy来学习如何达到这些子目标。此外,还提出了一个自监督学习方法来更有效地表征每个子目标。

评论:我对药物推荐这儿不太了解,但是看到treatment后很容易想到因果推断中估计treatment effete的事情,不知道是否可以把这两者结合起来。然后这里的分层模仿学习和我之前看到的一篇用于课程推荐的分层强化学习还是蛮像的,有兴趣可以看一下。

技术分类:Dynamic Treatment Recommendation(DTR)、模仿学习、自监督学习

代码:无

2. Joint Learning of E-commerce Search and Recommendation with a Unified Graph Neural Network

公司/学校:阿里

摘要:之前CTR的工作大多要么只利用推荐场景下的数据,要么只利用搜索场景下的收据,如果可以同时利用两者进行联合建模就可以有效缓解数据稀疏的问题。但是,联合夹馍的关键问题在于如何共享推荐和搜索两个场景下的信息。本文提出构建一个同时表示搜索和推荐交互的图:图物品和用户作为异质结点,将搜索的query作为边上的属性,对于推荐的边则赋予一个特殊的属性。然后,提出了一个意图和下有任务感知的聚合器来挖掘更高阶的而信息。

评论:最近一年看到的多行为建模的工作还蛮多,这一类工作可以有效缓解数据稀疏的问题,这一篇工作也属于类似的。但是搜索和推荐中间query的鸿沟确实是一大问题,如何很好地解决这一鸿沟,我认为本文只是给出了一个初步的方法,后续还值得探索。

技术分类:异质图推荐、多行为推荐、CTR

代码:https://www.github.com/XXX

3. Learning Multi-granularity Consecutive User Intent Unit for Session-based Recommendation

公司/学校:北京大学、微软亚研院、CMU

摘要:现有的大多数会话推荐只建模会话内的单个物品(没考虑几个连续物品的建模),并且也没有从高阶角度去捕获会话中的语义信息。本文提出建模不同粒度的用户意图:这里的粒度指的是连续两个、三个…物品(文中用的是会话片段 session snippet)。作者认为从不同粒度建模可以更好捕获会话内的长期依赖。因此,本文现提出了一个多粒度意图异质会话图,来捕获不同粒度的意图。然后提出了一个意图融合排序模块,融合不同粒度上的用户意图。

评论:近些年做多粒度和分层建模都挺多的。但是本文提出来的多粒度方法中粒度的定义还是很新颖的,可以尝试将本文提出的方法应用到序列推荐当中。

技术分类:会话推荐、异质图推荐、多粒度

代码:https://github.com/SpaceLearner/SessionRec-pytorch

4. Long Short-Term Temporal Meta-learning in Online Recommendation

公司/学校:微信(Ruobing Xie)

摘要:本文一共要解决两个问题:①用户行为数据是多源的(除当前推荐任务外的行为数据,称为外部行为),怎样高效利用是困难的。②用户偏好是实时变化的,但通常更新线上模型是非常耗时的(如重训练)。针对这两个问题,本文提出:①多源行为的融合方法,将多源行为构建为一个全局图,来捕获用户长期兴趣,用内部行为构建的图捕获短期兴趣。②设计了一个基于MAML的源学习方法来实时优化线上推荐模型,其思路是将不同时段的推荐看作为不同的任务。

评论:目前大多数多行为推荐的方法还都是基于图的,本文给出了一个新的思路是多行为的数据对应于长期偏好,而当前行为数据可用于抽取短期偏好。本文提出的基于元学习的在线推荐方法很新颖,但是感觉这个方向在工业界里做是更适合的。

技术分类:多行为推荐、图推荐、元学习、online recommendation

代码:无

5. Modeling Scale-free Graphs with Hyperbolic Geometry for Knowledge-aware Recommendation

公司/学校:香港中文大学、华为诺亚

摘要:当前应用KG的方法通常构建一个三部图(KG、用户、物品),但是已有的定理证明在欧式空间中学习这些几点表征会导致次优解。因此本文提出了一个基于双曲空间的洛伦兹模型。通常KG中的传播和编码操作都在双曲空间中进行。除此之外还提出了一个知识感知的注意力模型来自动度量不同信息的贡献。

评论:这篇文章抛出一个问题:并不是所有的数据分布都适合于欧式空间。但是我们大多数的推荐模型设计时并没有考虑到数据分布,而是直接在欧式空间中学习一个embedding。(总觉得这种从数学本身出发的文章都很牛批)

技术分类:知识图谱、embedding

代码:无

6. Multi-Sparse-Domain Collaborative Recommendation via Enhanced Comprehensive Aspect Preference Learning

公司/学校:四川大学、伊利诺伊大学

摘要:现有的跨域推荐有两个不太合理的假设:①假设一个域内的信息是丰富的;②假设用户在每个域内的偏好是相同的(域不变偏好)。为了放宽这两个假设,本文提出了一个将所有域都看做是稀疏域,且可以增强每个域性能的方法。该方法显式提出了一个多域分离网络,用于捕获域变的用户偏好。然后是一个门控偏好增强网络,来决定将哪些补充信息迁移到其他域。最后是一个多域自适应网络,用于捕获域不变的用户偏好。

评论:文中提到的每个域内用户的偏好应该是不同的,这一点是很对的。所以如果盲目地做信息迁移,可能会适得其反。而且这个工作最大的特点是对两个域都有提升,而一般的CDR主要是提升目标域性能。

技术分类:跨域推荐

代码:无

7. Personalized Transfer of User Preferences for Cross-domain Recommendation

公司/学校:中科院计算所、北航、微信(Ruobing Xie)

摘要:在跨域推荐中通常要学习一个bridge function(我自己启的名字)来将源域中的物品/用户表征转换到目标域。但是当前的方法大多只学习一个统一的bridge function。事实上,每个用户的偏好是不同的,因此这个bridge function按理来说也应该是不同的。为了解决这个问题,本文设计了一个元网络来为每个用户生成个性化的bridge function。文中还尤其提到了转换后的用户表征是可以作为冷启动用户的初始表征的。

评论:最近看到的元学习的文章蛮多的。推荐里面其实还存在很多需要个性化的模型组件,是否都可以将元学习的方法套上去,这是个有趣的问题。

技术分类:跨域推荐、元学习

代码:https://github.com/easezyc/WSDM2022-PTUPCDR

8. PipAttack: Poisoning Federated Recommender Systems for Manipulating Item Promotion

公司/学校:昆士兰大学、山东大学

摘要:通常我们会认为联邦学习的推荐系统是安全的,因为其是去中心化的。但是本文提出了一种攻击方法可以使得一些物品变热门。首先是使目标物品在嵌入空间上与那些热门物品相似,然后用一些用户上传一些精心设计的梯度,这样节可以使推荐系统加大目标物品的曝光。

评论:我对联邦学习这儿不是很了解,但是可以看到热门偏差的影响之大。

技术分类:联邦学习、推荐系统安全、热门偏差

代码:无

9. RecGURU: Adversarial Learning of Generalized User Representations for Cross-Domain Recommendation

公司/学校:阿尔伯塔大学、腾讯、中山大学

摘要:本文关注序列推荐下的跨域推荐,想要生成一个结合了多个域信息的Generalized User Representation(GUR),这个GUR可以方便地用于多个域来表征用户偏好。具体做法是设计一个自注意力的自编码器来生成GUR,其中判别器来预测GUR是从哪个域中产生的。此外,为了更好的训练,设计了一个新的对抗学习方法。文中提到GUR可以用于增强用户行为数据,或者直接去提升单个域的推荐性能。

评论:CDR见的比较多的是CF下的,序列推荐中的不多。然后这篇文章和7的那篇CDR形成了鲜明对比,一个是要学习一个统一的用户表征,另一个则是连bridge function都要个性化。所以究竟是统一的好,还是个性化的好呢?

技术分类:跨域推荐、对抗学习

代码:https://github.com/Chain123/RecGURU

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值