推荐系统顶会RecSys’20亮点赏析

文 | banana

源 | 知乎


RecSys 2020原计划是在南美洲巴西举办,因为疫情的原因不得不改到线上。虽说线上举办会议,参会效果会打折扣,但也为远在北京的我提供了参会便利。得益于各方的努力和软件的应用,整体来看此次参会的效果高于我对它的预期。这里分享一些从工程师角度发现的一些亮点,希望对大家有所帮助。

会议组织的一些亮点

先简单介绍一下此次会议的组织方式,不得不说组织方确实用心了,有人员有的可能24个小时都没休息。

  • 为了使全球各时区的参会人员都能方便地听到文章作者们的演讲,大多数演讲作者会在不同的时间段演讲两次

  • 为了线上会议的流程可以顺利进行,大会利用Whova软件帮助整个流程,Whova当中包括了会议时间表,直播平台,收集提问,论坛交友,活动组织等功能

  • 为了参会者可以方便集合自由讨论,大会用Gather.town 组织Poster Session等活动,大家可以自行在一个虚拟的空间进行交流,下图,我站在这个虚拟空间过道的RECSYS面板前,算是拍照留念了。

Gather.town虚拟空间

会议最新研究的一些亮点

这是我第三次参加RecSys。推荐系统的研究进展并不快,在会议上常常可以看到一些奇怪的研究方向,重复的研究结果,不过也能看到一些亮点。

工业方向亮点有:

  • PURS: Personalized Unexpected Recommender System for Improving User Satisfaction,

  • Behavior-based Popularity Ranking on Amazon Video

  • Query as Context for Item-to-Item Recommendation

这些方法要么经过工业界AB测试的验证,要么是工程实现简单,并能解决一些问题。

学术方向亮点有:

  • Counterfactual Learning for Recommender System

  • Debiasing Item-to-Item Recommendations with Small Annotated Datasets

  • A Large-scale Open Dataset for Bandit Algorithms

这些方法要么新奇,未来前景广泛,要么包含公开源代码或者数据。

下面我对这些亮点一一做简单的介绍

PURS: Personalized Unexpected Recommender System for Improving User Satisfaction

作者Pan Li是NYU Stern School of Business的一名博士生,这个工作是与阿里巴巴合作的成果,为了解决推荐系统当中的Filter Bubble的问题,他们提出了PURS,这个工作的优势包括

  • 在优酷App进行了AB测试,并在一些关键指标上面有很大的提升,其中人均观看时长提升了4.6%

  • 这个工作和Filter Bubble有关,这个话题大家讨论很多,但是这个方向的有效的研究并不多,这个工作少有奏效的方法

  • 这个工作考虑到了Exploration个性化的问题,有些人愿意探索不同类型的视频内容,有些人就不愿意,作者有考虑到这一点,实现了个性化的Exploration

PURS的推荐思路在Embedding上面的实现

Behavior-based Popularity Ranking on Amazon Video

作者Lakshmi Ramachandran是Amazon Video的Applied Scientists,介绍了他们的Popularity Ranking的一个工作。

之前我以为Popularty Ranking用当前统计的Populartity即可完成排序,没想到Popularity Ranking也可以利用机器学习解决Popularity Ranking当中的冷启动的问题:一些新的内容无法通过普通的Popularity Ranking排到一个好的位置,曝光给用户。

作者利用内容本身的一些文本信息、之前的流行度、和用户的交互信息等数据预测当前的Popularity,最终以预测的Popularity进行排序。一个有趣的现象是内容在平台上存在的时长这一特征,这个特征会给新内容高的分数。下面的截图提到了Age Feature(在平台上存在的时长)的影响

Age Feature(在平台上存在的时长)的影响,X轴为Age,Y轴为预测的Popularity

Query as Context for Item-to-Item Recommendation

作者Moumita Bhattacharya是 ESTY.COM 一家电商网站的Senior Applied Scientist,她介绍了ESTY打造相关商品推荐的技术选择。他们有6500万的商品这使得他们的技术选择和Amazon Video就会很不一样,Amazon Video的视频数量可能也就是几万的量级。

用户所看到的ESTY.COM的相关物品推荐

ESTY.COM 相关物品推荐的两个阶段

相关物品推荐分成两个阶段,在第一个阶段的Candidate Set Generation部分,他们利用Word2Vector的技术,把用户搜索点击的内容作为训练数据,给每个内容生成Embedding,之后用 Faiss: A library for efficient similarity search,返回与当前物品最相似物品列表作为Candidate Set。

第二阶段用lightGBM对Candidate Set进行排序。

他们提到的工作当中,有一个亮点是,他们利用了Context进行相关物品的个性化。下图是提到的可以将当前的节目作为Context,比如说在万圣节时期,对于一个给一个红色推荐相关的物品,是不是可以把一些适合万圣节的物品,同时相关的物品推荐出来,而不是只单单推荐红色的帽子。

在万圣节期间,可以利用当前的节日作为Context,推荐符合当前节日的物品

Counterfactual Learning for Recommender System

作者Zhenhua Dong是华为诺亚方舟实验室的Principal Researcher,这次演讲汇总了华为在Counterfactual方向上的一系列成果。为了解决Counterfactual的问题,作者提出Uniform Unbiased Data,通过在从1%流量当中,随机选择内容地向用户展现,使得每一个内容都有机会收集到用户的反馈。利用Uniform Unbiased Data,作者展开了一系统的研究和实验,取得了一系列的成果,其中之一是利用这1%的流量产生的Unbiased Data,创造了3%的指标提升。

作者在介绍Counterfactual machine learning

Debiasing Item-to-Item Recommendations with Small Annotated Datasets

作者Tobias Schnabel是来自微软研究院的研究员,提出利用小规模的标注数据来提升Item-to-Item的推荐(和之前提到的一个物品的相关推荐一样)。智能不够,人工来凑。实验表明这种方式的确有效,这说明我们的训练数据当中有很多干扰,并不能完全表示用户对所有物品的喜好。工业界或许可以利用之前提到的Unbiased Data达到Small Annotated Dataset的效果。

文章当中的方法比其它的方法都要好

Large-scale Open Dataset for Bandit Algorithms

From Workshop: REVEAL 2020: Bandit and Reinforcement Learning from User Interactions

Yann Lecun说RL是整个机器学习蛋糕上面的樱桃

作者Yuta Saito是一名本科生,在这次Workshop展示了他在RL&Bandits方向的工作。

强化学习的核心问题之一是如何在上线或者进行实验之前,评估训练好的强化学习的模型,也就是Offline Policy Evaluation。学术界提出了很多的方法,很多都是用模拟器产生的数据,但是少有一些实际数据的支持。

这个工作提供了两组通过Uniform Rank和 Bernoliour Rank产生的服饰购物行为数据,可以用来测评不同的Offline Policy Evaluation的效果,也可以用来开发新的Policy,用Offline Policy Evaluation来评测 。
https://github.com/st-tech/zr-obp Open Bandits Pipeline 开源代码代码质量高,有很多代码注释。

在3个展示位置收集的用户购物行为

作者提出的OPEN BANDIT PIPELINE

推荐系统不像图像识别,理论上推荐系统是典型的强化学习的应用场景,但限于各种工程约束,理论的不成熟,强化学习一直没有很好地应用于推荐系统,最近几年业界开始有成功的应用。这个领域值得继续关注。

总结

这次线上RecSys体验别具一格,并没有像我之前担心的那样,效果打很多折扣,很多参会者也是有很认真地了准备演讲。希望下次RecSys能看到更多的有亮点的工作。

后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

有顶会审稿人、大厂研究员、知乎大V和妹纸

等你来撩哦~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值