dqn推荐系统_强化学习在推荐算法的应用论文整理(一)

本文介绍了强化学习在推荐算法中的应用,特别是DQN(深度Q学习)在List-wise推荐系统中的实践。文章列举了京东的几篇相关研究,包括如何构建在线环境仿真器、考虑负反馈和商品偏序关系的DQN模型、优化长期用户参与度的RL模型以及基于GAN的RL推荐系统模拟环境。这些研究旨在解决大规模状态和动作空间、稀疏样本等问题,提高推荐系统的性能和用户体验。
摘要由CSDN通过智能技术生成

一. 京东在强化学习的几篇文章

  1. Deep Reinforcement Learning for List-wise Recommendations

本文将推荐的过程定义为一个序列决策的问题,通过Actor-Critic算法来进行 List-wise 的推荐。

模型结构:Actor-Critic

c91ca9948573ee90d156391346d82751.png

主要贡献:

  • 构建了一个线上环境仿真器,用于输出从未出现过的状态动作对的奖励,然后可线下对Actor-Critic网络参数进行训练。
  • 构建了基于强化学习的List-wise推荐系统。

2. Recommendations with Negative Feedback via Pairwise Deep Reinforcement Learning

主要创新点:考虑负反馈以及商品的偏序关系,并将这种偏序关系建模到DQN的loss函数中。

若一个商品能够找到其偏序关系(两个商品必须是同一类别,用户反馈不同,推荐时间要相近)的物品,此时模型即希望预估的Q值和实际的Q值相近,同时又希望有偏序关系的两个商品的Q值差距越大越好。

框架:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值