论文阅读16:Reinforcement Learning based Recommender System using Biclustering Technique

本文提出了一种结合强化学习和双聚类技术的推荐系统模型,将推荐问题建模为棋盘游戏,通过降低状态和动作空间来优化效率。双聚类用于处理用户和项目的高维稀疏数据,而强化学习则允许模型根据用户反馈实时调整推荐。通过在4×4棋盘环境中模拟用户移动,系统根据用户与项目集的相似度计算奖励值并生成推荐。实验表明,这种结合方法能有效解决推荐系统中的冷启动问题,并能适应用户行为的变化。
摘要由CSDN通过智能技术生成

 

Reinforcement Learning based Recommender System using Biclustering Technique

原文链接: https://arxiv.org/pdf/1801.05532.pdf


“强化学习推荐,借助双聚类biclustering减少状态和动作空间优化效率和效果”

 

Abstract:

推荐系统致力于在海量的信息中为用户推荐其感兴趣的内容,由于信息的爆炸式增长,推荐系统的重要性日益凸显,也产生了很多有效果的方法:其中一个方法就是将推荐系统建模成MDP问题,但是由于离散的状态动作太多,我们提出一个基于强化学习的推荐系统,将推荐系统建模成棋盘格的游戏(gridworld),利用双聚类技术以减少动作状态空间。这种方法还可以有效解决冷启动问题。

 

Introduction

协同过滤(CF)是常用的推荐方法,但是有两个缺陷:

1、CF有两个维度:用户user和项目item,但是无论用基于用户的协同过滤(user-based)还是基于项目的协同过滤(item-based)都是只考虑两个维度中的一维,很难捕捉到两个维度同时产生的重要影响,并且数据矩阵通常高维且稀疏。——所以利用双聚类技术

2、CF是静态的,用户的反应不能实时加入到数据中。——所以利用MDP技术

双聚类:

可见文档:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值