基于强化学习的推荐系统相关研究进展、经典论文整理分享

本文介绍了推荐系统的三个核心模块:用户建模、推荐对象建模和推荐算法,并探讨了强化学习作为智能体学习方式的特性。强调了强化学习在推荐系统中的广泛应用,并分享了一组相关的研究论文资源,涵盖了RL和Learning-to-Rank领域的最新成果。
摘要由CSDN通过智能技术生成

深度学习与NLP

专注深度学习、NLP相关技术、资讯,追求纯粹的技术,享受学习、分享的快乐。

677篇原创内容

公众号

    推荐系统把用户模型中兴趣需求信息和推荐对象模型中的特征信息匹配,同时使用相应的推荐算法进行计算筛选,找到用户可能感兴趣的推荐对象,然后推荐给用户。推荐系统有3个重要的模块:用户建模模块、推荐对象建模模块、推荐算法模块。

    强化学习是智能体(Agent)以“试错”的方式进行学习,通过与环境进行交互获得的奖赏指导行为,目标是使智能体获得最大的奖赏,强化学习不同于连接主义学习中的监督学习,主要表现在强化信号上,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统RLS(reinforcement learning system)如何去产生正确的动作。由于外部环境提供的信息很少,RLS必须靠自身的经历进行学习。通过这种方式,RLS在行动-评价的环境中获得知识,改进行动方案以适应环境。

    目前强化学习在推荐系统拥有非常丰富的应用场景。本资源整理了基于强化学习(RL)推荐系统相关的研究和经典论文。由于相关性高,此处还列出了几篇learning-to-rank(LTR)的研究论文。所有的论文都按时间排序。

    资源整理自网络,资源获取见源地址:https://github.com/Jinjiarui/rl4rs-papers  

论文资源列表

往期精品内容推荐

数据科学从业者必读书籍-《数据科学手册-25位数据科学家的建议》免费pdf分享

训练神经网络的方法分享-Andrej Karpathy

2020年新书-《机器学习算法入门》免费pdf分享

邱锡鹏DL经典教材-《神经网络与深度学习》免费pdf及ppt分享

2020年最全-少样本学习(FSL)相关综述、数据集、模型/算法和应用资源整理分享

20年2月新书-《贝叶斯算法分析技术第三版》免费分享

Yoshua Bengio-用深度学习实现对世界的合成理解

11月新书-《强化学习:算法与理论》分享

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

lqfarmer

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值