Recsys 2018长篇论文总结

标题Recsys2018论文总结(应用及方向):

Recsys2018会议在加拿大渥太华举行,接下来我就大会接受的32篇长篇论文的主要应用及方向进行介绍。

  • 32篇论文中关于新应用场景的论文共9篇,主要应用方面如下:
    • The Art of Drafting: A Team-Oriented Hero Recommendation System for Multiplayer Online Battle Arena Games
    涉及领域为游戏领域,关于游戏开始时如何选择英雄的方案。推荐算法在部分玩家选定英雄角色后,为其余玩家推荐最合适的英雄来提升玩家的胜率。
    • No More Ready-made Deals: Constructive Recommendation for Telco Service Bundling
    涉及领域为电信运营商和多媒体服务领域。推荐算法根据用户的偏好和服务商提供的服务为用户推荐适合于用户的服务套餐,而不是事先生成固定的套餐后让用户去选择,例如视频服务商对喜欢看某类型电影的用户开通特定类型视频的VIP会员活动,为流量使用量较大的用户推出无限量流量或者流量较多的套餐。
    • Optimally Balancing Receiver and Recommended Users’ Importance in Reciprocal Recommender Systems
    涉及领域为互惠推荐领域,生活中有一些推荐场景在推荐的时候需要让推荐双方都对推荐结果满意,这样才能达到一个较好的推荐效果,例如婚恋网站,求职平台,这种环境下用户接收推荐,被推荐用户积极响应推荐,这样才能让推荐有效果,该算法根据用户双方的要求最大化平衡用户之间的满意度。
    • Quality-Aware Neural Complementary Item Recommendation
    涉及领域为电商领域。推荐算法在当一个用户购买某一物品后,会为用户推荐与该物品互补的物品,提高推荐质量。
    • Generation Meets Recommendation: Proposing Novel Items for Groups of Users
    涉及的领域为新物品生产领域。在工厂生产和设计者设计新的物品时,推荐系统为生产哪种物品可以最大化利益提供宝贵的建议,例如手机生产商要生产手机,但是不同的群体可能喜欢不同类型的手机,有的用户喜欢屏幕较大的,质量较轻的,但是有的用户喜欢屏幕较小的,稍重的,对于这种情况,推荐系统在这里根据不同群体的偏好为生产商提供合适的推荐。
    • Deep reinforcement learning for page-wise recommendations
    涉及领域为电商领域。在这篇京东投稿的论文中,解释了如何使用深度强化学习根据用户的实时反馈进行页面推荐,并且对页面上物品的排布方式提出了一个解决方案。
    • Get Me The Best: Predicting Best Answerers in Community Question Answering Sites
    涉及的领域为CQA场景。在CQA(Community Question Answer)应用场景中,对于专业性较强的问题,只有专业的人员才能够回答,推荐提供在这种环境中将合适的问题推荐给合适的用户,让更多的问题得到专业性的解答。
    • ComfRide: A Smartphone based System for Comfortable Public Transport Recommendation
    涉及的领域为交通领域。推荐系统根据用户选择的影响舒适度的参数,在用户的时间限制下,为用户推荐最舒适的路线,并且该篇论文中提到了自己的推荐方案在舒适度方面表现优于谷歌地图推荐路线的舒适度,且高达30%。
    • MultiStakeholder Recommendation with Provider Constraints
    涉及的领域为一个用户拥有多个角色的场景。在每一个用户拥有多个角色的平台中,推荐算法根据用户的双重身份进行推荐。例如知乎的用户可能即使回答者,又是浏览者。

  • 公平性和多样性
    共有6篇涉及到公平性和多样性,主要的方向如下:
    • Unbiased Offline Recommender Evaluation for Missing-Not-At-Random Implicit Feedback
    解决离线推荐评估过程中非随机缺失数据对结果影响的问题。实际应用中的推荐系统会受到流行度的影响,在流行度的影响下,推荐系统会给用户推荐那些更加符合流行度的物品,因此得到的用户数据是满足非随机缺失性的,在进行测试的时候离线的测试相比于在线的A/B测试要代价小得多,并且可多次重复,但是流行度的偏差会让实验结果不再准确,为此康奈尔大学等人提出使用反转倾向评分技术去消除非随机缺失隐式反馈的影响,让离线评估更加准确。
    • Calibrated Recommendations
    推荐的时候根据用户的兴趣点的分布和占比为用户推荐物品。一般的推荐算法在给用户推荐物品的时候会给用户推荐他主要感兴趣的物品,Netflix的专家提出在给用户推荐物品的时候以用户历史行为反映出的兴趣分布按比例推荐物品,这样就在推荐的时候保留了用户的较小的兴趣点,让推荐结果变得多样,同时还提出了对标准推荐的度量方法;
    • Causal embeddings for recommendation
    让推荐系统在推荐的时候根据用户原生的行为去推荐,而不是根据推荐系统影响过的行为去推荐。受推荐系统影响了的用户的行为在一定程度上相比于用户一开始的原生的行为是有差异的,该文章在有偏好的数据集上使用一种完全随机的方法进行推荐,用来模拟用户原生的行为产生的推荐,结果显示该方法在推荐效果上有着显著的提升。
    • Exploring Author Gender in Book Rating and Recommendation
    探索在图书推荐系统如何歧视女性。在维护推荐结果的多样性方面博伊西州立大学提出了在图书推荐的时候,一些推荐算法歧视女性,并就此进行了探究,旨在暴漏出这个问题。
    • Enhancing Structural Diversity in Social Networks by Recommending Weak Ties
    在社交领域的推荐中,推荐算法将一些与用户有着弱连接(沟通的频率较少)的人进行推荐,增加推荐的多样性。
    • How Algorithmic Confounding in Recommendation Systems Increases Homogeneity and Decreases Utility
    算法混淆如何增加同质性并减少效用。推荐系统经常评估或者训练的数据是用户已经被推荐系统影响了的数据,再根据这些数据去推荐,这就产生了一个恶性的循环,该文章解释了为什么算法混淆会使推荐结果同质化,同时不会增加效用。

  • 可解释性
    Recsys2018中关于可解释性的论文一共3篇,主要方向介绍如下:
    • Why I like it Multi-task Learning for Recommendation and Explanation
    在推荐的同时生成推荐解释。根据用户的评论信息,使用矩阵分解进行等级预测,同时使用对抗学习进行推荐解释,同时进行等级预测和推荐解释。
    • Providing Explanations for Recommendations in Reciprocal Environments
    在互惠的环境中提供推荐解释。在互惠的环境中提供推荐的研究结果表示当推荐涉及到重要的花费的时候,互惠的解释优于那些只考虑接收者一方的解释方法,当推荐涉及到的物品不重要要的时候,互惠的解释和传统的解释方法相比就显得不是很高效。
    • Explore, Exploit, and Explain: Personalizing Explainable Recommendations with Bandits
    使用强化学习技术在平衡探索和利用的同时,为用户推荐合适的物品,并且提供解释。

  • 辅助推荐
    Recsys2018中关于辅助推荐的论文一共5篇,其主要的方向介绍如下:
    • Judging Similarity: A User-Centric Study of Related Item Recommendations
    通过用户来衡量两个物品之间的相似度,而不是通过计算得到两个物品之间的相似度,并且通过以用户为中心的衡量方法得到基于内容的推荐算法在相似度和推荐质量方面优于基于评分和点击的算法。
    • On the Robustness and Discriminative Power of Information Retrieval Metrics for Top-N Recommendation
    Top-N推荐中健壮性和区分度的研究。实验得到当截止点越深的时候,有更好的健壮性和区分度,并且精度可以提供一个较高的健壮性,正规化折扣累计增益有着最高的区分度。
    • Eliciting Pairwise Preferences in Recommender Systems
    引出成对的偏好。在使用用户的偏好方面,研究表明使用成对的偏好的时候,可以增强推荐的效果。
    • Effects of Personal Characteristics on Music Recommender Systems with Different Levels of Controllability
    用户的特质在音乐推荐系统的不同控制度下对推荐结果的影响,研究结果表示当音乐的复杂性越高,得到的结果的质量就越高,并且个人的视觉记忆能力对推荐的结果没与影响。
    • Interpreting User Inaction in Recommender Systems
    解释用在推荐系统中的无行为。对于用户的无行为分成7类,并研究每一类的无行为对未来物品无行为的影响,并且根据历史数据预测用户的无行为,通过得到的无行为模型改进推荐系统。

  • 推荐算法优化
    • Recurrent Knowledge Graph Embedding for Effective Recommendation
    一种高效推荐的知识图谱方法。该论文中在原有的知识图谱的基础上进行改进,可以自动学习实体以及实体路径之间的语义,并且使用了一种新颖的循环网络架构用来链接实体之间路径的语义,可以将路径融合到推荐结果中。
    • Preference Elicitation as an Optimization Problem
    优化偏好引出问题。提出了一个SPQ(静态偏好调查表)方案,用来进行偏好的引出,该方案使用事先生成的问题进行推荐,减少了问卷1/3的长度,并且相比于动态生成问题的的方法,提升了个性化推荐的效果并且减少了问卷的长度。
    • Neural Gaussian Mixture Model for Review-based Rating Prediction
    使用神经高斯混合模型进行基于评论的评分预测,使用评论的文本信息分别构建用户神经网络和物品神经网络,然后使用高斯混合模型进行评分预测。
    • Spectral Collaborative Filtering
    谱协同过滤方法在谱域中使用谱卷积运算,可以发现用户和物品之间的更深层次的联系,从而在一定程度上缓解了协同过滤的冷启动问题。
    • Translation-based Factorization Machines for Sequential Recommendation
    将翻译和度量的方法与因子分解机结合用于有序的推荐,用欧式平方距离替代内积来表达特征之间的关联度,同时考虑内容的特征,提升了推荐的质量。
    • Interactive Recommendation via Deep Neural Memory Augmented Contextual Bandits
    Contextual bandit 使用时需要大量的用户交互数据,深度神经记忆增强机制使用用户的历史数据进行建模,这样就可以使用用户少量的交互数据快速学习得到用户的偏好。
    • Item Recommendation on Monotonic Behavior Chains
    利用用户的反馈行为满足单调依赖性关系进行推荐,例如评论行为暗含购买行为,购买行为暗含点击行为。
    • Adaptive Collaborative Topic Modeling for Online Recommendation
    原有的协同过滤算法没有办法实时响应数据变化,该篇文章利用了一个滑动窗口的机制监测新数据,然后利用增量的矩阵分解和主题模型,对新数据做实时推荐,生成评分。
    • Categorical-Attributes-Based Item Classification for Recommender Systems
    在推荐算法中使用物品的分类信息提高推荐的质量。

参考:参考论文地址
自己做的ppt将上面的内容总结到ppt里面
https://download.csdn.net/download/liu_12345_liu/11214379
有人私信问我有没有设方面的代码,下面是自己当初学习这方面的时候搜集到的一些大神的资料,下面这两个里面的内容已经很多了,希望对大家有用:
http://www.apachecn.org/kaggle/
https://github.com/princewen/tensorflow_practice

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值