翻译(笔记):可解释性推荐系统综述Explainable Recommendation: A Survey and New Perspectives

本文是对“Explainable Recommendation: A Survey and New Perspectives ”的一篇学习记录和关键内容翻译,如有不对的地方,请批评指正,谢谢!

这篇文章主要包括以下几个部分:

目录

1 introduction

1.1 explainable recommendation

 1.2 a historical overview

1.3 classification of the methods

2 different forms of expanations

 2.1 user-based and item-based expanations

2.2 Content-based Explanation

2.3 textual explanations

 2.4 visual expanations

2.5 social expanations

3. explainable recommendation models

3.1 matrix factorization

 


1 introduction


1.1 explainable recommendation


这一部分是对可解释推荐的定义,重点关注推荐系统研究领域的可解释性推荐,对个性化推荐研究工作进行分类。特别的,多数的推荐系统研究任务可以被描述围殴5个W问题

  when\ where\  who\  what\  why

这一部分读者可以对可解释性推荐系统有一个清晰的理解,同时对整个推荐系统的研究也有一个概览了解,明白为什么可解释性推荐在推荐系统研究领域的重要性。


 1.2 a historical overview


这一部分将对前人的研究做一个综述概览。虽然说“可解释性推荐”在2014年被提出来的,但是它的概念可以追溯到很早之前的个性化推荐研究中去。比如,Schafer 1999年提出的在推荐系统中要向用户解释所推荐产品的类别,如“您正在看的这个商品和您之前看过的产品相似”,这是基于物品的协同过滤核心思想。Herlocker在2000年时的研究:利用MovieLens数据集对协同过滤算法进行解释。
早期的个性化推荐多数是基于内容推荐或协同过滤(content-based recommendation or collaborative-filtering).基于内容的推荐通过对用户或者商品的属性信息进行建模,比如:价格,颜色,商品商标。因为物品的内容信息对于用户来说更容易理解,因此基于内容推荐时可以直接的向用户解释为什么要从众多的候选物品里面推荐这个物品给用户。最直接的方法:给用户解释所推荐的这个物品是他所感兴趣的。
2012年,Ferwerda对基于内容的推荐进行了一个全面详尽的研究。基于内容推荐,收集各个应用方面的内容信息是非常耗时的,2011年Ekstrand 提出协同过滤方法,通过群体的智慧来克服这个困难。最早期的CF是基于用户的,2001年Sarwar提出基于物品的CF,Linden在2003年时将Item-CF应用到了亚马逊商品推荐上。对于用户来说,基于item-CF和user-CF预测评分比较难理解,但是可以从哲学方面来理解。比如,基于user-CF的推荐,可以解释为“推荐的是和您相似的用户喜欢的物品”,基于item-CF可以解释为“推荐的是和您之前感兴趣的物品相似的物品”,虽然协同过滤对推荐系统的准确率提升有很大的提高,但是对与很多基于内容的推荐的算法解释性不够直观。

2008年Koren提出了 LFM隐语义模型,包括基于CF的矩阵分解方法使得推荐系统在评分预测上取得了成功,但是也有不足的地方,LFM预测出的结果很难理解为什么这个物品要比其他的物品要更好,即推荐的可解释性不好,用户理解不到为什么该物品预测的评分高,所以就推荐这个物品?

为了让个性化推荐能够直观的可理解,研究者门转向研究可解释性的推荐模型,这个模型不仅仅要进行推荐列表的生成,还需要对推荐列表进行解释的工作。如2013年Leskovec提出的LDA(latent dirichlet allocation)隐狄利克雷分配模型,一种文档主题生成模型,2014年zhang正式的定义了“可解释性推荐”,通过将潜在维度与可解释性推荐的显式产品特征进行对齐,提出了显式因子模型EFM(explicit factor model)。值得一提的是近几年深度学习对个性化推荐的性能有所提升,但是由于深度模型的黑盒特性,使得推荐模型的可解释性有一定困难。

从更广泛的意义上来说,近年来,在Greater-AI研究领域的研究者们也意识到可解释AI ExpainableAI的重要性,在深度学习,计算机视觉,自动驾驶,自然语言处理等任务中都需要解决Expainable AI这个task。推荐系统作为AI研究的一个重要的分支,需要解决各种推荐系统的可解释性任务,为开发和研究新的可解释机器学习算法和理论提供了合适的背景。


1.3 classification of the methods

本文提供了一个现有可解释推荐方法的分类范式,这有助于更好地理解可解释推荐研究的最新进展。将现有的可解释性推荐方法分为两个维度:第一:生成的解释的类型(type of generated explanations);第二,生成解释的模型或算法,可以大致分为矩阵分解(matrix factorization),话题模型(topic model),图模型(graph-based),深度学习(deep learning),知识图谱(knoledge-graph),关联规则(association rules),自组织模型(post-hoc model)。基于上面分的两个维度,本文通过第2,3章分别详细的阐述。比如,文本解释,视觉解释

2014 zhangEFMtextual explanation
2017 Seo基于CNN的可解释性推荐textual expanations
2018 Chen基于深度模型的可解释推荐visual expanations

关于推荐模型的可解释性和效率性能如何达到平衡将在后面的章节详细阐述。


2 different forms of expanations

可以用多个形式来进行推荐结果的解释:文本,主题词云,图片内容加高亮,社交网络关系,图表等。

这一部分将总结以下对推荐结果的解释采用不同的展现形式的各种方法,下图来自原文,图片左边部分是用户的评分,评语,右边部分是不同形式的推荐解释。

 2.1 user-based and item-based expanations

从协同过滤方法开始讲起,基于user-cf和item-cf的解释通常是通过用户的显性反馈或隐性反馈体现的。

在基于用户的协同过滤中,这样生成解释:让用户知道他的所打过的评分和某一部分人相似,而这一部分人对当前系统的推荐列表的物品的评分都很好。从图片中理解

在推荐列表的物品附上上图类似的统计图,(a)图可以表明,这条物件物品在和你有相似打分行为的用户集合的打分情况,也就是说你的25个相似用户中,有23个人都觉的这个电影还可以,那给你推荐的化,你对这部电影的评价可能也会比较可以的。 

在基于物品的协同过滤中,这样生成解释:让用户知道所推荐的物品和他之前所喜爱的物品具有相似性。基于物品的可解释性对用户来说能够更直观的理解,基于用户的可解释性可能相似用户和目标用户没有啥联系,不了解这个提供可解释性的用户们。下图展示了基于用户的协同过滤和基于物品的协同过滤的特性。

 

根据用户的历史购买信息或动作信息来推荐可能会触犯人家的隐私问题,所以一个新的方式提出来了,基于用户的社交关系进行可解释性推荐。

2.2 Content-based Explanation

基于内容的推荐,将用户的喜好和物品的内容特征进行匹配推荐,具有直观的可解释性。

基于内容的推荐可以应用到各个应用场景中,比如,电影推荐,根据电影的流派,演员,导演等和用户的喜好进行匹配;书籍推荐,图书的类型,价格,作者等同用户的喜爱进行匹配。基于内容的可解释性的一个公共范例:给用户推荐物品,这些物品的特征属性和他们兴趣领域匹配。

Vig 2009年提出给物品内推特征进行打标签,利用标签进行推荐和解释推荐结果。

物品的内容特征可以更直接的让用户理解为啥推荐该物品。用户统计信息描述用户的内容(通过对用户的年龄,性别,地区进行统计),利用户统计内容也可以用来生成基于内容的解释,zhao[2014,2016]在社交媒体的推荐中就采用了这个方法。

2.3 textual explanations

用户产生的很多内容都可以被web搜集,比如在电商网站的评论信息,社交网络里面的post,转发信息等,这些信息对于刻画用户的特征非常重要,可以根据这些信息设计推荐解释,使得推荐的结果更具有说服力。很多模型通过文本信息进行解释为啥推荐该物品。

利用文本信息进行推荐解释可以分为两个层面:一个是特征层面(对推荐结果的情感倾向 possible entiments),一个是句子层面。

基于特征层面和内容推荐相似,只不过特征不能直接从内容中获得,需要提取或学习才能获得特征,即将特征提取或学习作为推荐系统模型的一部分.2014年zhang提出并开源了一个短语级的情感分析工具 Sentires,从大规模的文本评论中提取产品特性和用户情感,可以从产品的文本评论中提取“特征-观点-情感”三联词。该工具包具有检测不同特征词的意见词上下文情绪的能力,例如,虽然”噪音“搭配“高”通常代表“负面情绪”,但当“质量”搭配“高”时,它反而显示“积极的情绪”。zhang在2014,2015提出了EFM显式因子模型用于可解释性推荐,利用特征-观点的词对的词云模型进行解释。

基于句子层面的方法:解释是完整的,语义连贯的句子。句子可以通过模板生成(template),也可以利用自然语言处理技术生成。(LSTM,GRU)

 2.4 visual expanations

为了利用视觉图像的直观性,最近出现了利用产品图像进行可解释推荐的新尝试.对图片进行高亮处理。

2.5 social expanations

对于基于用户进行可解释推荐存在的问题:用户的信任问题和隐私问题-提出了利用社交网络进行可解释性推荐。


3. explainable recommendation models

常用的模型包括:矩阵分解(matrix/tensor factorization),话题模型(topic modeling),基于深度学习的推荐模型(deep recommendation model)

3.1 matrix factorization

这一部分介绍矩阵分解(张量分解)在可解释性推荐系统中的哟应用。

很多基于矩阵分解方法的推荐系统存在一个问题:比如LFM(latent factor models),用户或物品在编码的时候维度是隐藏的。通常情况下我们把用户/物品用低维的向量来表示,每一个维度代表一个影响因子,但是我们并不能明确的知道这个因子的含义,即难以解释。为了解决这个问题,zhang2014提出EFM(explicit factor models).如下图

从用户的评论文本中提取产品的显示特征, 图a:给用户推荐具有他们所关心的性能特征的产品,图b :将用户的评论进行处理,提取用户-商品-情感倾向特征,图c: 用户关注的特征矩阵(user-feature attention matrix X)商品质量矩阵(item-quality matrix Y)

针对用户对物品的喜好可能随时间变化,zhang2015对模型进行了扩展。

chen2016将EFM模型扩展到张量分解上面,从用户的文本评论中生成user-item-feature立方,基于这个cube立方进行个性化推荐,同时考虑了商品可能属于多个类别的情况,缓解了数据稀疏问题。如下图

 wang2018在MF的基础上提出了多任务学习的张量分解,如下图,将用户偏好推荐模型和自定义内容解释模型通过张量分解的方法联接起来 via a joint tensor factorization solution.

3.2 topic modeling

 用于文本信息的可获取,话题模型广泛应用于可解释性推荐系统。通过话题模型,可以直接用话题词云来作为推荐的解释信息。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

君子慎独_诚意

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值