Explainable Recommendation A Survey and New Perspectives读书笔记第一章

Explainable Recommendation: A Survey and New Perspectives

第一章 Introduction

本文提供了一个二维分类法来对现有的可解释的推荐研究进行分类:一个维度是解释的信息源(或显示样式),另一个维度是生成可解释的建议的算法机制。也总结了可解释推荐如何应用于不同的推荐任务,如产品推荐、社会推荐和POI推荐。

1.1 Explainable Recommendation

可解释的推荐模型可以是模型固有的也可以是模型不可知的。模型内在方法建立了可解释的模型,其决策机制是透明的,因此,我们可以很自然地为模型决策提供解释。与模型无关的方法(有时称为事后解释方法)允许决策机制成为黑箱。相反,它开发了一个解释模型,在做出决定后生成解释。

1.2 A Historical Overview

早期的个性化推荐系统主要关注**基于内容或基于协同过滤(CF)**的推荐。基于内容存在的问题:收集不同应用程序域中的内容信息非常耗时。基于协同过滤尝试利用“群智”来避免这种困难。基于用户的CF将每个用户表示为一个评级向量,并基于其他用户对消息的评级的加权平均值来预测用户对新闻消息的缺失评级。基于物品的CF将每个物品作为一个评分向量,并基于同类项目评分的加权平均预测缺失的评分。

尽管CF的思想在推荐准确性上有了显著的提高,但是与基于内容的算法相比,它的解释不够直观。

Koren后来又提出了LFM,在众多的LFMs中,矩阵因子分解(MF)及其变体在评估预测任务中尤其成功。然而,尽管推荐性能成功,但LFMs中的“潜在因素”并不具有直观意义,这使得我们很难理解为什么一个物品获得了良好的预测,或者为什么它会从其他候选者中被推荐。

近年来,个性化推荐的深度学习(DL)模型逐渐出现。在本次调查中,我们将重点研究深层模型的黑箱特性给模型的可解释性带来的困难深层模型上可解释推荐的研究工作。我们可以研究深度学习、计算机视觉、自主驾驶系统和自然语言处理任务中的人工智能可解释性问题。

1.3 Classification of the Methods

我们用两个正交维度对现有的可解释推荐研究进行分类

1)解释的形式

2)生成这些解释的模型,代表了机器学习(ML)视角下的可解释推荐研究

潜在的可解释模型包括最近邻模型、矩阵分解模型、主题模型、图数据模型、深度学习模型、知识推理、关联规则挖掘等。

有了这种分类法,两个维度的每个组合都指向可解释的推荐研究的特定子方向(第12页有表格列下来)。

1.4 Explainability and Effectiveness

可解释性和有效性被认为是模型设计中两个相互冲突的目标,然而,最近的证据表明,在设计推荐模型时,这两个目标不一定相互冲突。例如,最先进的技术——比如深度表征学习方法-可以帮助我们设计既有效又可解释的推荐模型。在更广泛的AI领域中,开发可解释的深度模型也是一个有吸引力的方向。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值