《Statistical Methods for Recommender Systems》阅读笔记--第三章(2)推荐系统中的EE问题

    这章节提到一种解决诸如采用的训练数据由于时间影响(比如用早上的数据,训练后预测晚上的;或者使用历史数据)带来偏差的问题的方法——Kalman filter。具体参考《Applied Bayesian Forecasting and Time Series Analysis》。这块自己研究不深,工作中也没有太过在意,不过最近团队有同事提出了这个问题。后面考虑研究下。
    对用户聚类分群,然后在每一个群上使用最热门推荐(most-popular recommendation)。这样的方法效果好的的前提是,分的用户群粗粒度够高,然后每个用户群中的用户对于物品的喜欢的确趋同。此外,这种方法要能正常工作的前提是,对于所有获选物品,每个群能够利用的uv要足够大以确保可靠的识别回报率最高的物品。在物品集很大的场景下,这种方法就不适用了,因为哪怕是把每个物品展示给任一用户一次也几乎是不可能的。

这段自己还不是很理解。所以翻译也感觉没对味。为了不误导读者。把原文贴出。
原文:
这里写图片描述

稀疏数据场景下的EE问题:
降维技术:
稀疏数据下,降维的方法有:
     1、通过层次方法分群。包括层次聚类和决策树学习
这里写图片描述
这段的大概意思是,与其一开始就想着针对单个用户,单个物品解决EE问题,不如先尝试将用户和物品分群,实现一个粗糙的EE方案,然后随着能够获得更多的数据来实现更细粒度的方案。供参考的论文:
1)Pandey, S., Agarwal, D., Chakrabarti, D., and Josifovski, V. 2007. Bandits for taxonomies: A model-based approach. Pages 216–27 ofProceedings of the Seventh SIAM International Conference on Data Mining (SDM’07).
2)Kocsis, L., and Szepesvari, C. 2006. Bandit based Monte-Carlo planning. Pages 282–93
ofMachine Learning: ECML. Lecture Notes in Computer Science. Springer.
2、通过线性映射(Linear Projections)。我们平常听得最多的PCA(主成分分析)以及SVD(奇异值分解)就属于这种。这两种属于无监督方法。考虑更多(比如用户额外的点击反馈)的信息方法在第7章介绍。
3、通过协同过滤 。这个没理解。协同过滤能降维?
这段不理解。主要是黄色部分:
这里写图片描述
下面这段也没太明白:
这里写图片描述

后面参考三篇文章来搞定:
       1)Kakade, S. M., Shalev-Shwartz, S., and Tewari, A. 2008. Efficient bandit algorithms
for online multiclass prediction. Pages 440–47 ofProceedings of the Twenty-Fifth
International Conference on Machine Learning (ICML’08 (每看明白)
        2)Langford, J., and Zhang, T. 2007. The Epoch-Greedy algorithm for contextual multiarmed bandits. Pages 817–24 ofProceedings of the Twenty-First Annual Conference on Neural Information Processing Systems (NIPS’07).(没看明白)
       3)Li, L., Chu, W., Langford, J., and Schapire, R. E. 2010. A contextual-bandit approach
to personalized news article recommendation. Pages 661–70 ofProceedings of the
19th International Conference on World Wide Web (WWW’10).

在线模型

这里写图片描述
这部分在完成后面相关的时候再补充。

总结:

推荐问题不仅仅是一个监督学习问题。事实上,它也是一个EE问题。
对于推荐,监督学习极速的好处是帮助减少了EE问题的维度,并且再给定的上下文下,快速的找到给定用户最好的物品集。
在实践种,合并监督学习方法和经典的多臂老虎机机制的简单启发式方法非常有效。对于那些高维度的EE问题,如何获得更好的方法仍然是一个活跃的研究领域。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值