浅谈数据中的偏差问题和推荐系统去偏最新研究进展

9f9c8d209b344997639bed159320c2e5.gif

©作者 | 杨晨

来源 | RUC AI Box

本文首先回顾了数据中的偏差问题,通俗易懂地做一个解释和引入,并基于最近两年发表在顶级会议(KDD、SIGIR、WWW、AAAI 等)的推荐系统去偏相关论文,介绍最新研究工作,梳理其背后的技术脉络,本文旨在帮助相关研究人员快速熟悉和理解偏差问题以及推荐系统去偏的最新研究进展,如有遗漏或错误,欢迎大家指正。

71458a3f6b3813232ae4343c6898f689.png

从辛普森悖论说起

看一个例子[1],一所美国高校的两个学院,分别是法学院和商学院,新学期招生,人们怀疑这两个学院有性别歧视(偏向男性),于是对招生人数做了统计,如下:

270a18c23f25510bc8fa66d899234dd4.png

好的,看起来是这样的,接下来我们去深究一下这样性别歧视出现的原因究竟在哪?

首先来看法学院:

a47aee082b0f31864eff2e55ba1899eb.png

嗯哼?看起来女生录取率比男生要高,而且高的很显著,那么显然问题不在法学院,那就一定在商学院了。

再看商学院:

d2c139acf277be3e51f037456a8fd146.png

诶?奇怪,商学院这边看起来也是女生录取率要高一些。那这到底是怎么回事?法学院没有性别歧视,商学院也没有性别歧视,这个性别歧视是从哪里来的?

86134476627c41f9d35975b0a571fcd5.png

进一步分析

聪明的读者应该能发现,其实本质上没有性别歧视,只是统计数据使得其看起来像是学院招生时对性别有了偏向。进一步分析这个问题,这个现象可以很简单的进行解释,只需要注意到以下两点:

  • 法学院总体录取率低,商学院总体录取率高

  • 报名法学院的女生多,报名商学院的男生多

所以,女生录取率低只是因为更多的女生报名了低录取率的学院(因此拉低了女生总体录取率),而不是学院招生时对性别有歧视。

辛普森悖论虽然叫做悖论,其实并不是一个悖论,只是一个数据偏差导致的认知错误。在这个问题的开始,我们关注的是录取率,同时认为影响录取率的因子只有性别,这种情况下得到了错误的结论。当然,看到这里,原因显而易见,是因为忽略了“学院”这个因素,使得错误地判断了性别对于录取率的影响。

8924928f898fe517520733987fd9842b.png

类比到深度学习

在深度学习的框架下,模型学到的东西来源于训练数据,如果数据存在偏差(比如上面的数据量不均衡,没有消除混杂因素的影响等),也会给模型带来偏差(bias),使得模型的预测出现偏向及不公平等现象。

bd5f1e085a9c09f8826aa8e95d69dd29.png

后文中所涉及的偏差(bias)问题,本质大同小异,而只是导致偏差的原因、解决的方法有所差异。

3ff894b2c2eb05a954aeb1afd2126840.png

推荐系统偏差

接下来回顾一下推荐系统中的偏差问题,以下分类沿用之前推文(Debiased Recommendation: 推荐系统去偏研究进展概述)中的分类方式,并给出一句话为读者进行总结和通俗解释,以便更好的理解偏差类型和具体来源。

  • 选择偏差:用户的主观选择使数据带有偏向

  • 一致性偏差:用户打分会有从众现象

  • 曝光偏差:未曝光的数据认为不感兴趣

  • 流行度偏差:流行度高的物品越来越流行

  • 公平性问题:对特定群体有偏袒,比如性别

  • 循环偏差:偏差的恶性循环

  • 归纳偏置:模型归纳的经验(不算错误/误差)

4534e98ac8ff8e14d55587d80cc12ce9.png

浅谈一下推荐系统对社会的影响

偏差问题不仅仅会影响推荐系统的效果,还会造成一定的社会效应,推荐系统不仅仅是信息搜索工具,还控制着资源如何在不同的各方之间分配,下面简单地提了一些实际例子,来说明一下这种影响,以进一步明确我们为什么需要关注以及研究偏差问题。

首先,为什么推荐系统需要公平?

  • 推荐曝光的位置有限,曝光哪些商品?

  • 社交平台用户注意力有限,曝光哪些资讯?

  • 打车软件,用户有限,哪些司机接单?

  • 面试机会有限,面试哪些候选人?

其次,推荐偏差是如何引入的?

  • 训练数据引入社会偏见

  • 模型本身可能会呼应甚至强化数据中的偏差

4038da6964009bd58481890aa5de7c93.png

上图中训练数据引入了一些社会偏见(男性 = 软件工程师 = 高收入,女性 = 护士 = 低收入),由此训练出的模型也带有了偏见,因为AI并不明白哪些是敏感属性(性别)。这种不公平性会导致许多不良影响,例如信息不对等、马太效应、回音室等等[3]。

d04e4e0c06e65455c55a336dd3d556ed.png

最新研究进展

下面基于最近两年发表在顶级会议(KDD、SIGIR、WWW、AAAI等)的推荐系统去偏的相关论文,介绍部分最新研究工作,简单梳理其背后的技术脉络,也是在上一篇推文的基础上做一个补充和更新。

Causal Intervention for Leveraging Popularity Bias in Recommendation. SIGIR 2021

这篇工作针对流行度偏差提出了一个新颖的角度:如何利用流行度偏差来提高推荐效果?并不是所有的数据偏差都是有害的,盲目地追求无偏学习可能会移除掉数据中一些有益的模式。本文主要针对以下两个问题:

  • 训练阶段如何移除流行度偏差的负面影响?

  • 推理阶段如何利用流行度偏差?

该工作提出了一种新的训练和推理范式,在模型训练时移除混杂的流行度偏差,同时通过因果干预来利用流行度偏差对预测得分进行调整。

0c431caf8dffaf52d9c9f41373db0ffc.png

在训练阶段,绘制因果图,将流行度定义为混杂因素并切断其与物品之间的因果关系,利用do算子来计算交互概率,以此完成去混淆排名。

d1f5e4972485c968f14af8e9b2a59fbb.png

在推理阶段,高效利用流行度偏差(比如希望推广那些可能受欢迎的物品),使用简单的时间序列预测方法来设置流行度,利用do算子干预来进行模型推断。

Model-Agnostic Counterfactual Reasoning for Eliminating Popularity Bias in Recommender System. KDD 2021

a06ad7c0a25bfcce9552115e0eaadf18.png

关键词:popular bias

315b86eb82537679ffe56e531e2349c0.png

现有研究大部分通过逆倾向权重(IPW)处理流行度偏差,但是IPW方法对加权策略高度敏感,难以调整。本文核心关注点在于从因果关系的角度来探讨流行度偏差问题。

为了消除流行偏见,需要回答一个反事实的问题:如果模型只使用物品属性,排名得分会是多少?该工作设计了一个模型不可知的反事实推理(MACR)框架,该框架通过多任务学习来训练推荐人,通过反事实推理来进行去偏推荐。

3a5b00563f2f3e2bd86dac32a8e0d4ea.png

该模型包含三个部分,用户-物品匹配 / 物品模块 / 用户模块,对应三个优化损失目标同时优化。消除流行度偏差的关键在于从排名分数中去除路径𝐼→𝑌的直接影响,按照以下目标计算最终得分:

693b3bf9cb7ddfa323b723cde7abaea5.png

Dual Unbiased Recommender Learning for Implicit Feedback. SIGIR 2021

1d2e53bd9962d180f0b60936c0c75c7b.png

关键词:popular bias

4eb17fb664039b78e4701126daa0449a.png

现有的研究主要处理正反馈中的偏差而没有考虑缺失的反馈中的偏差,这篇短文提出一个双重的推荐学习框架,核心关注点在于同时消除点击和未点击数据中的偏差

14a94a6d467cec516d83d39ab388c046.png

该研究提出的损失函数采用了两种倾向加权方法,从点击和未点击数据中有效估计出真实的正和负偏好:

ba1471a4ab9546a98b2c4678c3a03f02.png

其使用了两个无偏项来分别表示点击和未点击数据,其中,propensity score 计算公式如下:

d850f97e9f15914efd9138916576288e.png

Controlling Fairness and Bias in Dynamic Learning-to-Rank. SIGIR 2020

f15dd71b8d03d6b85568d81b3d6edc7b.png

关键词:popular bias / Fairness

66d116e50c4fea79ce9e642b9353c87d.png

在双边市场(购物,音乐等)中,物品的排序不仅对用户有效用,而且还决定了物品提供者(供应商、工作室等)的效用(曝光、收入等),只针对用户优化排序算法会对物品提供者不公平。本文核心针对的两个问题:

  • 马太效应:流行的越来越流行(rich-get-richer)

  • 公平性:针对用户的排序算法导致的对物品提供者不公平问题

论文中定义了两种衡量公平性差异的指标:

基于曝光的公平性差异:

f117e1490fe4142f001f766970728c15.png

基于反馈的公平性差异:

4fe163fb69f4e17c7d6f759c682c9243.png

其中,分母表示偏好,最终衡量的是单位偏好上的曝光/反馈差异,以此达到去偏的目的。融合以上指标,提出了 FairCo 的排名策略:

f426f93ee0cc82a49e0a504e327b74b0.png

以上策略包括了一个无偏基数相关估计量,它既可以作为公平的无偏价值评估,也可以作为排名标准,该算法采用控制器的形式,集成了公平性和效用的无偏估计,在可用数据增多后可对两者进行动态调整。

Popularity Bias in Dynamic Recommendation. KDD 2021

811d0133ed145087b845f926956b2573.png

关键词:popular bias / dynamic

038494c51789fc80905106202db940aa.png

流行度偏差是推荐系统中长期存在的挑战:受欢迎的物品被过度推荐,造成了用户可能感兴趣的不太受欢迎的物品被牺牲,这种偏差对用户和物品提供者都产生了不利影响。大多数现有工作将流行度偏差置于静态环境中,仅针对单轮推荐分析偏差,这些工作没有考虑到现实推荐过程的动态性,主要针对以下几个问题:

  • 流行度偏差在动态场景中如何演变?

  • 动态推荐过程中的独特因素对偏差有什么影响?

  • 如何在这个长期动态过程中消除偏差?

618ad4d397b7d8e543bd6accd230cfcd.png

这项工作将动态推荐和流行偏好进行形式化,利用基尼指数来定量衡量流行度偏差,提出影响流行度偏差主要有四个因素:内在用户规模不均衡 / 模型偏差 / 位置偏差 / 封闭反馈循环,同时在半合成数据集中进行了实验验证。

在其他工作的基础上,进一步提出了一个的假阳性校正 (FPC)方法进行去偏,首先利用任意有偏的推荐模型获取一个原始得分,然后利用历史交互中多个时间点的假阳性信号对模型得分进行修正:

cf2f7d10ff440f32fe202ee8540ca8e4.png

通过上式可得到去偏后得分,并且,该方法可与其它方法进行集成,以进一步提高性能。

Maximizing Marginal Fairness for Dynamic Learning to RankWWW 2021

34a513a9f3391b2558f7e74db060c45c.png

关键词:Fairness / Dynamic LTR

d223936446ecb4ba139329440559a903.png

传统的排名框架对文档的相关性进行排序不可避免地带来不公平的结果曝光,现有的关于动态学习排序公平性的研究,往往通过显著牺牲排名前的结果的结果相关性和公平性的表现来实现排名列表中文件曝光的整体公平性。

这篇工作希望在在线排名系统中控制和平衡结果的相关性和公平性,其从理论上选择top-k结果中相关和曝光不足的文档,以最大化边际相关性和公平性。

首先定义了一个衡量top-k总体公平性的指标,表示为列表中所有文档对的平均视差:

01a0a5ec685911fbc53cb92e9ab7e631.png

MMF算法包括了三个子模块:

1. 最大化边际公平性:贪心地进行的文档选择以最大化文档边际公平性。

2bb09e557fffea892248131b7d1bd1b3.png

2. 最大化相关性:基于文档的相关性进行文档选择。

0f1ea6a992537603e61ed0b85d464cef.png

3. 平衡top-k相关性和公平性的控制器:通过最大化边际公平性和最大化相关性可以得到两个文档,随后基于一个概率λ,从这两个中选择一个作为最终文档。

bcb66566855a8aa12b5add1dbdf997d4.png

Cross-Positional Attention for Debiasing ClicksWWW 2021

df5341bc55678b1df4b2602cdd732ec0.png

关键词:position bias

ce56757ac35efd1193038eb4b9c98057.png

现有的针对位置偏差的研究都把位置简单看作一个排序列表,这难以捕捉复杂的现实世界的用户行为,而且很难推广到web应用程序中的现代用户界面(UI),这篇论文核心关注点在于具有UI界面的位置偏差

c5709c58cd91b1b45e445aeb53367eb4.png

该论文假设一个项目的点击概率不仅取决于他自己的位置,而且受到其他所有项目的位置和相关性影响。模型的输入包括项目特征和项目位置,通过项目特征计算相关性得分,利用注意机制捕捉项目之间的交叉位置信号,以计算点击预测得分,最后融合两个得分,得到预测点击概率(下图)。

a4e55980d2b92fedc4d656649b20908e.png

Mitigating Sentiment Bias for Recommender SystemsSIGIR 2021

699c3a182a8ed77111fcbad78de30835.png

关键词:sentiment bias

6fa7f50357f11e4d39f86fdbbbd06a57.png

本文首次提出推荐系统中一种新的偏差:情感偏差,具体表现为许多推荐模型对具有更多积极反馈的用户/物品提供的推荐更准确(相比于具有更多消极反馈的用户/物品)。情感偏差给那些严厉的用户以及小众的物品(具有更多负面反馈)带来了低质量的推荐,并且这种偏差同流行度偏差存在区别。

9b3767f7a2ab540ed5d58f71e90686b2.png

如上图所示,将用户和物品分为积极和消极两类,实验表明推荐系统在积极用户(物品)上的明显表现优于消极用户(物品)。

fced9491e7fe9ed48d920830f2d11acf.png

这项工作发现,降低物品情感偏差很可能会同时降低用户情感偏差,所以论文针对物品做分类处理,针对推荐系统提出了一个新的优化损失目标(下式),包括一个原始的推荐损失函数和三个额外的正则化项,分别对应物品偏差正则化 / 信息熵正则化 / 嵌入正则化。

00a3c24b5300dba4d8b23685a70772bb.png

outside_default.png

参考文献

outside_default.png

[1] https://zh.wikipedia.org/wiki/辛普森悖论 

[2] A survey on bias and fairness in machine learning. 

[3] Tutorial on Fairness of Machine Learning in Recommender Systems. SIGIR 2021. 

[4] Model-Agnostic Counterfactual Reasoning for Eliminating Popularity Bias in Recommender System. KDD 2021 

[5] Causal Intervention for Leveraging Popularity Bias in Recommendation. SIGIR 2021 

[6] Dual Unbiased Recommender Learning for Implicit Feedback. SIGIR 2021 

[7] Controlling Fairness and Bias in Dynamic Learning-to-Rank. SIGIR 2020 

[8] Popularity Bias in Dynamic Recommendation. KDD 2021 

[9] Maximizing Marginal Fairness for Dynamic Learning to Rank. WWW 2021 

[10] Cross-Positional Attention for Debiasing Clicks. WWW 2021 

[11] Mitigating Sentiment Bias for Recommender Systems. SIGIR 2021

特别鸣谢

感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。

更多阅读

91f4b6871940ed16973023909d47c020.png

151c2953e16c998863bc8c91f1067ab5.png

452b3589f3290f8151358ae7880c8c13.png

6e4728476baa12cc734af8813e27178f.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

58a26343689a7d5f5de879f008af1bcb.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

e432f507eea0e1260a65282d12662e2c.png

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值