一、内容概述
1.1 主要内容
非活跃用户的训练数据不足可能导致其更容易接收到不令人满意的推荐,并且由于协同过滤的性质,他们的推荐可能受到更多活跃用户训练记录的影响,这导致了系统的不公平待遇。在基于知识图(KG)的可解释推荐环境中,本文提出了一种基于启发式重排序的公平约束方法来缓解这种不公平问题,该算法不仅能够提供高质量可解释的推荐,且在几个方面减少了推荐的不公平性。
1.2 研究背景
- 非活跃用户交互数据较少,用户-项目交互的缺乏意味着相应的用户偏好几乎没有被捕获,导致推荐系统模型对此类用户的可见性较弱。
- 当前可解释推荐模型不仅在推荐性能方面不公平地歧视用户,还会根据解释多样性进一步区分用户。
- 由于知识图谱保存了结构化和关系化的知识,它们使得追踪特定推荐的原因变得容易,因此,基于知识图的方法在可解释的推荐中变得越来越流行。
1.3.本文贡献
- 为验证关注的可解释推荐系统中的不公平问题,本文研究了亚马逊的四个电子商务数据集,并进行数据驱动的观察分析,以评估它们的数据不平衡特征。为了量化这种不公平,本文设计了关于推荐性能和解释多样性的群体公平和个体公平标准。
- 为了减轻任何潜在的算法偏差以提高推荐质量,并提供多样化的解释,特别是对于弱势用户,本文提出了一种公平感知算法,以提高公平的可解释的多样性,从而产生潜在的感兴趣的推荐项目。
- 通过大量的实验和案例研究,定量的结果表明,本文的公平感知算法在推荐和公平评估两方面都提供了显著的改进,无论是在群体层面还是在个体层面,并且能够对多个KG-enhanced的可解释RS方法具有可推广性。
二、公平感知算法
2.1 相关概念
- 知识图表示为 G = { ( e h , r , e t ) ∣ e g , e t ∈ E , r ∈ R } G=\{(e_h,r,e_t) \big|e_g,e_t∈E,r∈R\} G={(eh,r,et) eg,et∈E,r∈R},E为一组实体,R为一组连接两个不同实体的关系,在推荐场景中, e h e_h eh属于用户集 U U U, e t e_t et属于项目集 V V V。
- 模式
π
π
π定义为图中长度为
∣
π
∣
|π|
∣π∣的一个关系序列,
π
=
{
r
1
◦
r
2
◦
⋅
⋅
⋅
◦
r
∣
π
∣
∣
r
i
∈
R
,
i
∈
[
∣
π
∣
]
}
π = \{r_1 ◦ r_2 ◦ · · · ◦ r_{|π|} | r_i ∈ R,i ∈ [|π|]\}
π={r1◦r2◦⋅⋅⋅◦r∣π∣∣ri∈R,i∈[∣π∣]},关于模式
π
π
π的用户u到项目v的连接路径
L
u
v
π
L_{uv}^π
Luvπ定义为
L u v π = { e 0 , r 1 , e 1 , . . . , e ∣ π ∣ − 1 , r ∣ π ∣ , e ∣ π ∣ ∣ ( e i − 1 , r i , e i ) ∈ G , i ∈ [ 1 , ∣ π ∣ ] } L_{uv}^π = \{e_0,r_1, e_1, . . . , e_{|π|−1},r_{|π|}, e_{|π|} \big| (e_{i−1},r_i, e_i) ∈ G,i ∈ [1, |π |]\} Luvπ={e0,r1,e1,...,e∣π∣−1,r∣π∣,e∣π∣ (ei−1,ri,ei)∈G,i∈[1,∣π∣]}且满足 e 0 = u , e ∣ π ∣ = v e_0 = u,e_{|π|} = v e0=u,e∣π∣=v - 用户-项目路径分布 D u , V D_{u,V} Du,V定义为 D u , V ( π ) = N ( π ) ∑ π ′ ∈ Π N ( π ′ ) D_{u,V(π)}= \frac {N(π)}{\sum_{π'∈Π}N(π')} Du,V(π)=∑π′∈ΠN(π′)N(π)其含义可理解为对于用户u连接的项目v的模式 π \pi π出现的频率。
- 知识图的可解释推荐
给定一个不完整的知识图 G G G,目标是恢复缺失的事实 { ( u , r u v , v ) ∣ ( u , r u v , v ) ∈ / G , u ∈ U , v ∈ V } \{(u,r_{uv},v) \big| (u,r_{uv},v) {∈}\mathllap{/\,} G,u ∈ U,v ∈ V\} {(u,ruv,v) (u,ruv,v)∈/G,u∈U,v∈V}使得每个事实 ( u , r u v , v ) (u,r_{uv},v) (u,ruv,v)与一个用户-项目路径 L u v π L_{uv}^π Luvπ相关联,其中项目v是对用户u的推荐,路径 L u v π L_{uv}^π Luvπ是对该推荐的解释。
(个人理解)寻找潜在的能够与用户u和项目v的建立连接的模式 π \pi π路径。
2.2 公平问题
-
数据不平衡
本文从用户交互的角度来考虑用户活动的可见性,当前可解释模型忽略了用户-项目交互数据中的这种差异。通过观测亚马逊数据集中购买的商品数量的分布,可以发现,虽然活跃用户倾向于购买更多商品,但大多数消费者是不活跃的用户,他们的用户-项目路径模式缺乏多样性,这种不平衡可能导致有偏见的模型,其在推荐质量和解释多样性方面表现出不公平。 -
多样性量化
为了更好地评估两组之间路径分布的差异,引入*Simpson’s Index of Diversity(SID)*作为量化模式多样性不公平的指标。
假设每个用户代表一个独特的社区,而相应的用户-项目路径的模式表示这样一个社区中的物种。形式上,SID测量两个随机选择的单个用户-项目路径属于同一个用户-项目路径模式的概率。在两次随机抽取中获得相同模式的概率被定义为(参考生态科学中SID定义式) T u v ( R , N ) = 1 − ∑ i = 1 R n i ( n i − 1 ) N ( N − 1 ) T_{uv }(R, N) = 1 − \frac {\sum_{i=1}^Rn_i(n_i − 1)}{N(N − 1)} Tuv(R,N)=1−N(N−1)∑i=1Rni(ni−1)其中,- R表示指定用户u到项目v的路径模式的数量;
- n i n_i ni表示属于第 i i i个路径模式的这种路径的数量;
- N是源自用户u的用户项目路径总数;
SID值范围在0和1之间,较大的值表示较大的路径模式多样性。
2.3 公平目标
- 群体不公平度量
当来自两个组的用户保持相同的正面决策概率时,组公平成立。在本文设置中,考虑一组活跃用户G1对一组不活跃用户G2,根据历史记录中购买的商品数量来定义,即 G 1 ∩ G 2 = ∅ G1∩G2 =\emptyset G1∩G2=∅。
假设有m个用户与N个项目相关联,用 Q = [ Q i j ] m × N Q = [Q_{ij}]_{m×N} Q=[Qij]m×N,其中 Q i j ∈ 0 , 1 Q_{ij} ∈ {0,1} Qij∈0,1表示是否选择j项推荐给用户 u i u_i ui,第i行向量中1的个数为K。- 群体推荐不公平定义(GRU): G R U ( G 1 , G 2 , Q ) = ∣ 1 ∣ G 1 ∣ ∑ i ∈ G 1 F ( Q i ) − 1 ∣ G 2 ∣ ∑ i ∈ G 2 F ( Q i ) ∣ GRU (G_1,G_2, Q) =\Bigg|\frac {1}{|G_1|}\sum_{i∈G_1}F(Q_i)-\frac {1}{|G_2|}\sum_{i∈G_2}F(Q_i)\Bigg| GRU(G1,G2,Q)= ∣G1∣1i∈G1∑F(Qi)−∣G2∣1i∈G2∑F(Qi) 其中,使用符号F来指代对推荐质量进行评分的度量,使得 F ( Q i ) F(Q_i) F(Qi)表示用户 u i u_i ui的推荐质量,调用诸如NDCG@K或F1分数。GRU计算两个群体的平均推荐质量得分之差。
- 群体解释多样性不公平(GEDU): G E D U ( G 1 , G 2 , Q ) = ∣ 1 ∣ G 1 ∣ ∑ i ∈ G 1 f ( Q i ) − 1 ∣ G 2 ∣ ∑ i ∈ G 2 f ( Q i ) ∣ GEDU (G_1,G_2, Q) =\Bigg|\frac {1}{|G_1|}\sum_{i∈G_1}f(Q_i)-\frac {1}{|G_2|}\sum_{i∈G_2}f(Q_i)\Bigg| GEDU(G1,G2,Q)= ∣G1∣1i∈G1∑f(Qi)−∣G2∣1i∈G2∑f(Qi) 其中,其中 f ( Q i ) f (Qi) f(Qi)根据用户 u i u_i ui在可解释路径的历史交互多样性来反映解释公平性得分,计算方式的具体定义在后面。
- 个人不公平度量
个人公平指相似的人应该得到相似的对待。在本文的推荐设置中,不可能满足个体公平性的严格标准,因为本文专注于解决算法偏差,而不是固有的数据不平衡。- 个人推荐不公平(IRU): I R U ( Q ) = ∑ Q x , Q y ∣ F ( Q x ) − F ( Q y ) ∣ 2 m ∑ i = 1 m F ( Q i ) IRU(Q)=\frac{\sum_{Q_x,Q_y}\Big|F(Q_x)-F(Q_y)\Big|}{2m\sum_{i=1}^mF(Q_i)} IRU(Q)=2m∑i=1mF(Qi)∑Qx,Qy F(Qx)−F(Qy) 其中, x ≠ y x≠y x=y,即随机选择两个不同的个体。本文援引了基尼系数来量化个人推荐性能的不公平性,它的范围从0到1,其中1代表最大的不平等,而0意味着完全平等。
- 个人解释多样性不公平(IEDU): I E D U ( Q ) = ∑ Q x , Q y ∣ f ( Q x ) − f ( Q y ) ∣ 2 m ∑ i = 1 m f ( Q i ) IEDU(Q)=\frac{\sum_{Q_x,Q_y}\Big|f(Q_x)-f(Q_y)\Big|}{2m\sum_{i=1}^mf(Q_i)} IEDU(Q)=2m∑i=1mf(Qi)∑Qx,Qy f(Qx)−f(Qy)
- 问题描述
本文不是在缺失路径寻找过程中施加公平性约束,这将需要大量的计算工作来重新训练现有的模型,而是对给定的现有模型选择的用户项目路径的候选集进行公平性感知的路径重新排序,以获得高质量的可解释推荐,同时满足公平性约束。
2.4 公平感知算法
本文的公平感知算法应该考虑历史用户交互和生成的可解释路径的多样性,所以引入两个分数,分别为路径得分 S p S_p Sp和多样性得分 S d S_d Sd。
-
Path Score:衡量路径的质量,计算如下式 S p ( Q i ) = ∑ j = 1 N ∑ π ∈ Π Q i j S π ( i , π ) S_p(Q_i) =\sum_{j=1}^N\sum_{π ∈Π}Q_{ij}S_π(i, π) Sp(Qi)=j=1∑Nπ∈Π∑QijSπ(i,π)其中,
- Q i Q_i Qi为推荐项目的向量;
-
S
(
u
,
π
)
S(u, π)
S(u,π)为用户u的偏好调整系数,计算如下式
S
(
u
,
π
)
=
w
π
D
u
,
V
(
π
)
∑
L
u
v
π
∈
L
u
v
π
ℓ
p
a
t
h
(
L
u
v
π
)
S(u, π) =\frac{w_π}{D_{u, V(π)}}\sum_{L_{uv}^π ∈\mathcal{L}_{uv}^π}ℓ_{path}(L_{uv}^π)
S(u,π)=Du,V(π)wπLuvπ∈Luvπ∑ℓpath(Luvπ)其中,
- L u v π \mathcal{L}_{uv}^π Luvπ为从用户u开始的关于路径模式π到项目v的所有正用户-项目路径的集合;
- ℓ p a t h ( L u v π ) ℓ_{path}(L_{uv}^π) ℓpath(Luvπ)是一条路径的分数, ℓ p a t h ( L u v π ) = ∑ i = 1 ∣ π ∣ ( e ⃗ 0 + r ⃗ i ) ⋅ e ⃗ i , ( w h e r e e 0 = u a n d e ∣ π ∣ = v ) ℓ_{path}(L_{uv}^π)=\sum_{i=1}^{|π |}(\vec{e}_0 + \vec{r}_i) · \vec{e}_i,\ (where\ e_0 = u\ and \ e _{|π |} = v) ℓpath(Luvπ)=i=1∑∣π∣(e0+ri)⋅ei, (where e0=u and e∣π∣=v)
- w π w_π wπ是生成的可解释路径中路径模型π的权重,计算如下式 w π = l o g ( 2 + ∣ L u v π ∣ ∑ π ′ ∣ L u v π ′ ∣ ) w_π = log ( 2 + \frac{|\mathcal{L}_{uv}^π| }{\sum_{π'} | \mathcal{L}_{uv}^{π'}| }) wπ=log(2+∑π′∣Luvπ′∣∣Luvπ∣)
- D u , V ( π ) D_{u, V(π)} Du,V(π)为2.1.3中定义的训练集中路径模型 π \pi π的分布权重
-
Diversity Score:衡量可解释路径多样性的分数,计算如下式 S d ( Q i ) = ∑ j = 1 N ∑ ∣ Π ∣ Q i j T i j ( Π , N j ) S_d(Q_i) =\sum_{j=1}^N\sum_{|Π|}Q_{ij}\mathcal{T}_{ij}(Π, N_j) Sd(Qi)=j=1∑N∣Π∣∑QijTij(Π,Nj)其中,
- Π Π Π为知识图中有效用户-项目路径模式的数量;
- N v N_v Nv指从用户u到项目v的路径总数;
- T u v ( Π , N v ) \mathcal{T}_{uv}(Π, N_v) Tuv(Π,Nv)指(u,v)对的辛普森指数;
-
Fairness score:通过合计路径和多样性得分,就可计算出用户 u i u_i ui的公平性得分 f i ( Q i ) = α S p ( Q i ) + ( 1 − α ) λ S d ( Q i ) f_i(Q_i)=αS_p(Q_i)+(1-α)λS_d (Q_i) fi(Qi)=αSp(Qi)+(1−α)λSd(Qi)其中,α∈[0,1]是两个分数的加权因子,λ是一个让两个分数归一化到同一比例的比例因子。
-
Recommendation score:遵循基线方法计算用户 u i u_i ui和项目 v j v_j vj之间的偏好得分S(i,j),则此时的目标变为为每个用户 u i u_i ui寻找一个选择策略来推荐满足组公平约束的K个项目,即推荐优化问题如下 max Q i j R = ∑ i = 1 m R r e c ( Q i ) \max\limits_{Q_{ij}}\ \mathcal{R} = \sum_{i=1}^m\mathcal{R}_{rec}(Q_i) Qijmax R=i=1∑mRrec(Qi)其中,
- R r e c ( Q i ) = ∑ j = 1 N Q i j S ( i , j ) \mathcal{R}_{rec}(Q_i)=\sum_{j=1}^NQ_{ij}S(i,j) Rrec(Qi)=∑j=1NQijS(i,j)
- ∑ i = 1 m Q i j = K , Q i j ∈ { 0 , 1 } \displaystyle\sum_{i=1}^mQ_{ij}=K,Q_{ij}∈\{0,1\} i=1∑mQij=K,Qij∈{0,1}
- G R U ( G 1 , G 2 , Q ) < ε 1 GRU(G_1,G_2,Q)<ε_1 GRU(G1,G2,Q)<ε1
- G R E U ( G 1 , G 2 , Q ) < ε 2 GREU(G_1,G_2,Q)<ε_2 GREU(G1,G2,Q)<ε2
个人推荐优化问题同理,约束条件为IRU和GREU。 -
Ranking score:对top-k推荐列表中的项目按优化推荐得分和公平性得分降序排列,定义为 R r a n k ( Q i ˆ ) = β γ f i ( Q i ˆ ) + ( 1 − β ) R r e c ( Q i ˆ ) \mathcal{R}_{rank}(\^{Q_i})=βγf_i(\^{Q_i})+(1-β)\mathcal{R}_{rec}(\^{Q_i}) Rrank(Qiˆ)=βγfi(Qiˆ)+(1−β)Rrec(Qiˆ)其中,β ∈ [0,1]是排序公平性得分的加权因子。与上面的λ相似,添加一个因子γ实现缩放效果.
三、实验
3.1 数据集
本文选用亚马逊数据集中的CDs and Vinyl, Clothing, Cell Phones, Beauty四个子数据集,每个子数据集构成一个知识图,所以都说一个独立的基准。由于较短路径对用户来说更为可靠,所以只考虑长度不超过3的用户-项目路径。
3.2 实验设置
选用三个现有技术水平的知识图可解释推荐系统的模型作为实验基线,分别为HeteroEmbed 、PGPR
、KGAT.
实验设置95%的非活跃用户和5%的活跃用户,令α=0.75,β=0.5.
3.3实验结果
本文再NDCG和F1分数以及活跃和非活跃用户之间的GRU方面展示了本文提出的公平感知算法与当时最先进的知识图可解释模型上的推荐性能和公平性差异。
由实验结果得知,本文的方法虽然牺牲了一定活跃用户的推荐性能,但不仅提升了非活跃用户的推荐性能,还减少了与活跃用户的公平差异。
3.4 案例学习
选取美容数据集中某非活跃用户示例,实验对比结果如下图所示
原始PGPR方法由连接到预测项目的“mention”路径填充,最终top-k列表中只有4个项目。加入本文的公平感知算法之后,填充了更多样的路径,并最终预测了用户愿意购买的6个正确项目。
存在的问题
标黄部分是我在阅读过程中没有理解的地方,欢迎大家在评论区与我讨论。
- 生成的可解释路径中路径模型π的权重 w π w_π wπ的计算公式是怎么来的?
论文代码
论文原文
https://doi.org/10.1145/3397271.3401051
本文为原创笔记,转载需标明。