联邦学习:联邦场景下的跨域推荐

原文链接:https://zhuanlan.zhihu.com/p/553492147

1 导引

1.1 跨域推荐模型

推荐系统中常常面临冷启动和用户交互数据稀疏的问题。解决这个问题的一个手段就是对用户在多个领域(domain)的日志数据联合起来进行建模,这里的多个领域的数据可以指用户在诸如新闻App、音乐App、视频App等多个软件的日志数据(比如点击的浏览新闻标题和描述等)。这种联合建模基于一个假设:用户在不同领域也倾向于拥有相似的偏好,比如喜欢爱情电影的用户也很可能喜欢言情小说。

而多视角(multi view)或跨域(cross domain)推荐模型[1]就是一种常见的跨领域数据联合建模方式,它会将多个视角/多个领域对应的特征映射到一个共享的隐空间(latent space)。事实上,这即是迁移学习中经典的几何特征变换(表征对齐) [11]思路,也是度量学习(Metric Learning)[12]思想的一种体现。

跨领域数据建模的多视角DNN

上图展示了对跨域数据建模的多视角DNN,它基于深度结构化语义模型(Deep Structured Sematic Models, DSSM)的计算最大化用户视角和多个物品视角对应隐向量的相似度,并按照相似度排序来推荐物品。图中的User View对应的特征为用户使用搜索引擎的查询信息,而其他的Item View对应的特征为用户在其它App所点击过的物品特征数据。该模型假定所有领域都对应着共同的用户。它使用了DNN将多个视角对应的高维稀疏特征映射xU ,x1, ..., xD到共享隐空间中的低维稠密特征yU, y1, ..., yD。

之后可以计算用户隐向量y_{U}和物品隐向量y_{j}\left ( j=1, ..., D \right )的语义相似度:

这里假设用户隐向量y_{U}和物品隐向量y_{j}\left ( j=1, ..., D \right )相关,然后接下来的目标就是为每个视角都找到一个非线性的映射,以使y_{U}视角和其它物品视角y_{1}, ..., y_{D}在隐空间的相似度之和最大化:

 其中W_{U}, W_{1}, ..., W_{D}为各个视角对应的权重参数,一共有个N用户-物品对样本和D个物品视角,其中每个物品视角xj都有其单独的输入特征维度dj。

 第i个用户-物品对样本拥有一个用户视角的输入特征x_{i,u}和其对应的物品视角特征x_{i,a},这里a是样本i对应物品视角的索引,样本i对应的其它物品视角的输入x_{i,j\neq a}则设为0向量。\gamma为温度系数。

 如上文所述,跨域推荐本质上是个迁移学习问题,它需要在多个领域异构数据的基础上通过某种“桥梁”(bridge)来提高一个或多个目标域的推荐效果。这里的“桥梁”指不同领域之间的关联项目,比如共同的用户,共同的物品,共同的特征等。上面的多视角DNN模型就假定所有领域都对应着共同的用户。

1.2 联邦跨域推荐模型

 跨域推荐在实际应用中常常面临隐私性的挑战,其一是不同用户的数据难以合法地进行集中化收集;其二是其使用的迁移学习模型跨不同的域和数据集进行映射,这常常会关联到不同的组织机构,同样会面临隐私问题。此时上面提到的需要将数据集中起来的跨域推荐方法就不再行得通了,需要考虑在联邦场景下的跨域推荐模型。

而联邦场景下的跨域推荐模型根据其隐私保护的出发点不同,可大致分为以下三类:

  • 横向 保证用户(client)之间的数据数据不共享,但多视角的数据是打通的。如下图所示[7],不同的用户可能具有A、B两个领域的信息,且A领域的数据和B领域的数据可共享:

  •  纵向 可以将用户的数据进行集中化收集,但多视角的数据不能共享。如下图所示[8],Platform 1 到Platform K 都拥有用户的行为数据,然后依靠第三方的服务器对其进行联合建模。
  •  横向+纵向 不仅保证client之间的数据不共享,且多视角的数据也是不能共享的。如下图所示[5],用户 u 的数据不能直接上传到云端(但可上传下载模型),且对于用户 u 而言,其在领域 d1的数据不能与其在领 d2 的数据共享。

 

我个人觉得在保证隐私的条件下进行多视角之间的信息共享(纵向/横向+纵向)是最有意思的,其核心是联邦迁移学习相关的理论:即在隐私保护的前提下,根据不同领域之间的关联来生成共享表征。根据我阅读过的大部分论文来看,如不同领域对应不同的组织机构,则它们的embeddings不能直接进行迁移,需要采取间接的迁移方法。这些方法具体来说就五花八门了,有用GAN来生成带差分隐私保护的共享embeddings的(参见《联邦学习:联邦场景下的多源知识图谱嵌入》),有用另一个中间视角的数据来训练共享子模型的[4],有用VAE来生成一个独立于所有领域的共享embeddings的[5],有先对数据加以差分隐私保护再用自编码器生成共享embeddings的[6]。可以预见这在未来仍将是个热点。

以下我们分别看下这三类所对应的相关论文,了解一下该领域的大致情况。

 2. 论文阅读

 2.1 ECML-PKDD 2020《Federated multi-view matrix factorization for personalized recommendations》

 这篇论文提出了联邦多视角矩阵分解分解算法,因为其使用的多视角数据不涉及跨组织机构,故只需要保证用户数据不共享即可,属于前面所说的横向类型。具体而言,在传统的矩阵分解算法中,常常只考虑用户-物品矩阵,即所谓共现矩阵R,通过分解该矩阵得到用户的隐向量矩阵P和物品隐向量矩阵Q:

 之后再基于用户矩阵P和物品矩阵Q得到用户u对物品i的预估评分:

其中p_{i}是用户i在用户矩阵P中的对应行向量,q_{i}是物品j在物品矩阵Q中的对应行向量。

 而所谓多视角矩阵分解,即包括以下三个视角:用户-物品,用户-特征,物品-特征。这三个视角分别对应用户-物品矩阵R\in \mathbb{R}^{N_{u}\times N_{v}},用户特征矩阵X\in \mathbb{R}^{N_{u}\times D_{u}},物品特征矩阵Y\in \mathbb{R}^{N_{u}\times D_{v}}。这里N_{u}为用户个数,N_{v}为物品个数,D_{u}D_{v}分别为用户和物品的特征维度。则多视角矩阵分解可表示为如下形式:

 如下图所示:

 多视角矩阵分解示意图

 其中P\in \mathbb{R}^{N_{u}\times K}是用户隐向量矩阵,Q\in \mathbb{R}^{N_{v}\times K}是物品隐向量矩阵,U\in \mathbb{R}^{D_{u}\times K}是用户特征隐向量矩阵,V\in \mathbb{R}^{D_{v}\times K}是物品特征隐向量矩阵,这里K是隐向量维度。

 此时所要优化的目标函数可以写为:

 这里c_{ij}=1+\alpha r_{ij}\alpha是一个表示隐式反馈不确定性的置信参数;\lambda _{2}是L2正则项;\lambda _{1}表示用户-物品视角与其它视角间的信息共享强度,若令\lambda _{1}=0则表示用户-物品视角不与其它视角进行信息共享,0\leqslant \lambda _{1}\leqslant 1可以根据数据生成过程的先验知识选择,也可以通过超参数优化来决定。

 模型参数P,Q,U,V可以通过交替最小二乘法(Alternating Least Square, ASL)来求解。

 下图描述了在联邦场景下用交替最小二乘法求解该问题的算法。

 联邦场景下使用交替最小二乘法求解多视角矩阵分解

如图所示,用户i和物品的交互信息r(i)(用户i在R中的对应行向量)及用户i的特征向量x_{i}(用户i在X中的对应行向量)只能在client i本地使用。物品的特征矩阵Y存储在item server中。fl server会将Q,U分发给client(用户),并将Q发往item server。 

 在每个client i,用户的隐向量p_{i}会在本地进行计算,其中会使用到该用户与物品的交互信息r(i)、该用户的特征向量x_{i}与来自server的Q,U。新的用户隐向量p_{i}^{*}计算公式如下:

 之后,client i按照下式计算f\left ( j,i \right )(用于之后在fl server计算\frac{\partial J}{\partial q_{j}}以更新Q):

 按照下式梯度f\left ( j,i \right )(用于之后在fl server计算\frac{\partial J}{\partial u_{d_{u}}}以更新U):

上述计算完毕后将f\left ( j,i \right ), f\left ( i,d_{u} \right )发往fl server。

 与此同时,在item server,物品特征隐向量矩阵V也会得到更新(其中会用到物品特征),新的物品隐向量v_{d_{y}}^{*}计算方式如下:

 更新完成后,在此基础上计算f\left ( j,d_{y} \right )(用于之在fl server计算\frac{\partial J}{\partial q_{j}}以更新Q):

 之后再将f\left ( j,d_{y} \right )发给fl server。

 而在fl server接收f\left ( j,i \right ), f\left ( i,d_{u} \right ), f\left ( j,d_{y} \right )后,按照下列两个式子计算梯度并更新Q和U:

 然后又将Q和U发往各client,将Q发往item server,以此循环往复。

 综上,该篇论文按照损失函数J对多视角数据矩阵R, X, Y共同进行矩阵分解,以学习隐向量矩阵P,Q,U和V,具体算法采用了联邦交替最小二乘法。可以注意到联邦场景下对参数矩阵Q和U进行的更新并不需要对用户数据进行聚合(虽然Q和U的更新依赖于用户数据)。

 2.2 FTL-IJCAI21 《A federated multi-view deep learning framework for privacy-preserving recommendations》

 上面提到的是基于联邦矩阵分解的推荐模型,而下面要介绍的是联邦场景下基于内容的(content-based)推荐模型,它侧重将用户或者物品的特征信息作为输入特征来建模。具体的模型采用我们第1部分中所叙述的多视角DSSM模型。该模型同时满足了多个client数据的隐私性和单个client中多视角数据的隐私性,属于横向+纵向类型

不过本文与原始多视角模型中共享用户视角的特征不同,本文共享的是物品视角的特征。设共有C个client,第c个client中的本地数据集表示为D^{c}=\left \{ x_{I},x_{1},...,x_{D} \right \}。这里x1, ..., xD为用户在D个不同App中记录的多视角特征数据,而物品视角数据集x_{I}\in \mathbb{R}^{d_{I}}从server下载,比如移动App的后端。DSSM模型将从各个App视角数据集x_{I},x_{1},...,x_{D}和物品数据集x_{I}中分别提取隐向量。算法的目标是为每个视角学得一个非线性映射f\left ( \cdot \right )以使物品视角隐向量和多个用户视角隐向量相似度的和最大化。第c个client的目标定义如下:

 这里N_{c}表示client c中用户-物品对的数量,第i个用户-物品对样本拥有一个物品视角的输入特征x_{i,I}和其对应的用户视角特征x_{i,a},这里a是样本i对应用户视角的索引。y表示f\left ( \cdot \right )的映射结果,\gamma是温度参数。

 联邦多视角DSSM模型(FL-MV-DSSM)求解算法的架构如下所示:

联邦多视角DSSM模型(FL-MV-DSSM) 

 

(a)FL-MV-DSSM和(b)SEMI-FL-MV-DSSM 都以传统的FedAvg算法为基础,且它们都需要server提供物品数据供所有client共享。不过在FL-MV-DSSM中每个client c中用户子模型和物品子模型的梯度会根据本地用户数据和本地物品数据进行计算,然后在server端对用户和物品子模型的梯度进行聚合;而SEMI-FL-MV-DSSM则只会聚合物品子模型的梯度,而不会聚合用户子模型的梯度。

注意,client在将梯度发往server前,会在本地先多个视角所算得的物品子模型梯度聚合(注意,D个用户视角共享同一个物品特征,会总共算得D个物品子模型的梯度);而为了保护各视角梯度中蕴含的敏感信息,FL-MV-DSSM使用差分隐私技术向各个视角所算得的物品子模型梯度中加入高斯噪声。在本地聚合完成后,client又会再将前述物品子模型梯度同D个用户子模型的梯度进行加密,然后发往server。

 2.3 SIGIR21 《FedCT: Federated Collaborative Transfer for Recommendation》

 本论文提出的模型满足了多个client数据的隐私性和单个client中跨域数据的隐私性,也属于横向+纵向类型。不过与前文采用的方法不同,本文提出的DUE(Decentralized User Encoding)模型并没有利用一个中间视角的数据来训练共享子模型,而是采用变分自编码器(VAE)来生成一个单独的用户编码隐向量,该隐向量可以被所有领域共享。在模型训练过程中,每个领域会使其对应的用户隐向量去对齐这个领域共享的用户隐向量。

 领域两两间的知识迁移和基于中间表示的迁移方式对比

 上面的图 (a) 中展示的为领域-领域两两间的EMCD[8]式(直接对齐)知识迁移,而 (b) 则为本文提出的DUE模型中所采用的基于中间表征的迁移方式。用户的表征X_{u}=\left [ U_{u}^{(d_{1})},...,U_{u}^{(d^{_{D}})} \right ]。事实上,(a) 中的这种方法直接迁移用户表征有违隐私性,而且当领域数量增长时计算量会很大。而 (b) 则更能保证隐私性,而且其计算代价也不会随领域数量快速增长。此外,(b) 这种方法有利于各领域随时加入(plug-in)和退出(plug-out),更具灵活性。

设领域集合为。对每个领域d∈D,将起对应的物品集合表示为Id(大小为Nd)。设领域之间的物品无重叠,即满足。设每个client对应一个用户,一共有C个用户。一个领域d可能只涉及到用户集合的子集,一个用户u∈U也可能只涉及到领域集合的子集。每个领域都有对应的共现矩阵Rd及其协同过滤模型fd,fd为一个给定用户-物品对(u,i)预测评分结果:的函数,这里表示用户u在领域d的表征,Ld为用户表征的维度。在本文的边缘跨领域推荐场景下,fd和U(d)根据特定领域的协同过滤目标函数进行预训练,并作为该领域对应的本地预训练模型使用。 

 加上server端,整体的联邦跨领域迁移架构如下图所示(图中仅仅展示了单个用户):

FedCT中联邦跨领域迁移架构示意图 

 这里设Sd为server端的领域服务商存储空间(存有fd和Ud);\varepsilon _{u}为用户在设备上所拥有的个人存储空间(任何领域都能对其进行访问),用于存放共享隐向量z_{u}\varepsilon _{d,u}为领域服务商在用户设备上的存储空间。它能够与Sd同步获取预训练模型并与用户的个人存储空间\varepsilon _{u}通信。正如图中所示,对任意领域d和d′而言,本文在设定上禁止的信息交互。不过,正如我们前面所说的,本文允许用户个人存储空间\varepsilon _{u}和client端任意领域存储空间\varepsilon _{d,u}的信息交换,这也就意味着用户个人存储空间充当了中间代理的作用,以协调间接性的知识迁移。

本文的最终目标是在为目标领域的冷启动用户提供推荐(使用根据其它领域的用户表征做为辅助信息)。给定多个领域的用户表征做为训练数据,则问题就成为了学习对用户表示进行迁移的模型:,该模型将来自所有领域的用户信息映射到dt:

 这里假定用户的表征在优化和推断的过程中是固定的。若是在中心化环境下,所有领域协作训练一个共享的g是很容易的。但正如开头所说,直接迁移emebddings会带来隐私性的问题,而这就需要使用用户存储空间中的共享编码隐向量zu这一中介了。

 由于需要隐向量与用户emebddings的双向编码与恢复,故采用AE/VAE对用户隐向量进行建模。具体地,本文为每个领域d都设置了一个VAE gd(包含编码器和解码器)。如下图所示,设,则gd由一个编码器(参数为Φd,负责根据特定领域的用户表征U(d)生成zu)和一个解码器(参数为Θd,负责根据zu生成)组成。这里生成的含有来自所有领域的丰富信息,将会被用于之后的推荐服务。另一方面,每个领域也会不断更新自己的编码器和解码器。

下面我们来看论文VAE部分的模型和损失函数细节。这里论文采用生成模型的视角(关于生成模型的一些前置知识可以参见我的文章《寻找领域不变量:从生成模型到因果表征 》),对隐向量 zu 进行变分推断。 

 首先,将用户表征 Xu 视为观测数据,它由隐向量 zu 生成:

注意,这里论文假设各领域的独立性,有:  。 zu 的后验分布  难以推断,故采用其变分近似  。优化目标为最大化与用户表征 Xu 相关联的变分下界:

 用户 u 本地训练的损失函数损失函数由 Ldec 与 Lenc 两部分组成:

 其中, Ldec 在最大化解码分布 的同时,拉近共享隐向量分布  和其先验  的距离:

  则拉近隐向量近似后验  和共享隐向量分布的距离:

 接下来设  ,且通过重参数化来完成Zu的采样过程: , 

将编码器的分布函数代入上式,我们就能进一步地将损失函数写为:

对于解码器分布 ,虽然前面假定了各领域条件独立,即各领域允许有不同的解码器损失函数,但这里为了简便,我们统一定义为高斯核:

这里 ,且方差 \sigma 在实验中固定,此时即为最小化均方误差。

最后我们可以得到联邦优化过程如下:

注意,这里在用户 u 本地进行联邦平均的是各领域迭代更新之后的用户隐向量  ,而不是各领域的用户embeddings本身。不同领域的用户embeddings是不能直接拿来混合平均的,因为这样会导致领域的信息丢失(这也就是为什么会有EMCDR等基于表征对齐的方法出现的原因)。正如上面所说的,本文采取的方案则更进一步,在用户表征基础上提取用户隐向量,并使得各领域的用户隐向量去对齐共享的用户隐向量,从而在隐私保护的条件下来完成知识迁移。此外,在用户本地的编码器和解码器参数也是按照不同领域来分别进行的平均。

2.4 WWW22 《Differential Private Knowledge Transfer for Privacy-Preserving Cross-Domain Recommendation》

本文不考虑用户间数据的隔离性,只考虑在两个相互隔离的领域间进行知识迁移,属于纵向类型。本文假定两个领域(源域和目标域)之间有着相同的用户,但是有着不同的用户-物品共现矩阵,目标在于在保证数据隐私的情况下,利用原域的数据以提高目标域的推荐表现。本文基于Johnson-Lindenstrauss变换(JLT)将共现矩阵加以差分隐保护,然后使用深度自编码器和深度学习网络来分别对源域和目标域中的共现矩阵进行建模,

本文采用的技术解决方案具体描述如下两个阶段:

在第一阶段,先基于JLT变换将共现矩阵由高维空间映射到低维空间空间,能够在够保护数据隐私(即无法辨识出某个用户的评分情况)的同时保持用户间的几何相似度(即相似评分的用户有相似品味)。此外本文还给出了考虑到稀疏情形的JLT(SJLT),能够进一步减少JLT的计算复杂度并解决源域的数据稀疏性问题,其中使用了sub-Gaussian随机矩阵和Hadamard变换。

在第二阶段,本文提出了一个异构的跨领域推荐模型(HeteroCDR),该模型使用深度自编码器和DNN来分别对差分隐私保护的源域共现矩阵和目标域共现矩阵进行建模。此外,论文对这两个网络学得的用户embeddings进行对齐,从而使知识能够进行迁移。

 论文采用JLT随机变换以得到差分隐私保护的共现矩阵R′。JLT将一个来自的向量变换到。这里为所有元素为1的稠密矩阵。

而稀疏架构下的JLT和JLT的作用原理相似,也是定义一个从从高维到低维空间的映射,同时大概率保持变换后向量的l2范数不变。将稀疏向量从转换到的SJLT定义为:,这里

是标准化后的Hadamard矩阵(每个元素都是 +1或−1且每行互相正交),这里是一个按位运算并模2的内积,D是个随机对角矩阵并满足

 整个隐私保护下的跨领域推荐架构如下:

基于差分隐私和自编码器的跨领域推荐

 如图所示,将变换到后,会通过自编码器来学习用户的embeddings(用于源域和目标域的知识迁移)。先通过编码器获取用户embeddings:,这里ℎ是用户embeddings的维度;然后解码器对共现矩阵进行重构:。重构的loss为:

这里F为均方误差。

此外,论文对源域和目标域用户embeddings进行对齐以完成知识迁移。在对齐模型中,论文将用户embeddings的loss表示如下:

 在目标域B方面,采用深度矩阵分解模型来拟合用户评分,其核心思想为最小化真实评分和预测评分之间的交叉熵,这里预测评分由多层全连接网络输出。该网络会先计算计算用户和物品的隐向量(ℎ表示隐向量维度),然后计算用户和物品的隐向量的余弦相似度做为评分预测值,即。损失函数描述如下:

 最终的完整损失函数为以上三个损失函数之和:

2.5 CIKM22 《FedCDR: Federated Cross-Domain Recommendation for Privacy-Preserving Rating Prediction》[7]

本论文提出的模型满足了多个client数据的隐私性,但单个client中跨领域数据是可以共享的,属于横向类型。本文的亮点在于使每个客户端维护一个用户个性化模型,聚合时只将物品模型和领域迁移模型的参数上传服务器,而将用户个性化模型留在客户端。这样,本文的方法在解决了不同客户端之间数据异构问题的同时,也保证了用户隐私并减少了参数通信量(说实话,个人感觉这个创新点太水)。

如下是本文算法的框架示意图:

图中展示了种类型的客户端,包括只有A领域数据的客户端、同时具有A、B两个领域数据的客户端以及只有B领域数据的客户端。每个客户端利用评分预测模型预训练得到个性化的用户模型和物品模型后,再采用EMCDR[8]中的跨域映射(mapping)手法,将领域A的用户隐向量变换到领域B(B到A同理)。事实上,这里的所谓跨域映射操作非常类似于异构知识图谱的对齐操作(可以参见我的文章《知识图谱实体对齐:基于平移(translation)嵌入的方法 》)。之后在上传参数时将用户个性化模型参数留在本地,而将物品模型和跨域迁移模型的参数上传到服务器。下面我们分别叙述客户端本地的各个模型部件:

评分(Rating)预测模型

评分预测模块采用矩阵分解[9]模型得到用户和物品的隐向量。对于物品直接进行嵌入得到物品隐向量;而对于用户,为了保证其隐私,论文设计了一个个性化模块 ℎ 以获取其个性化用户向量:

训练的损失函数可定义为:

 评分预测模型的示意图如下所示:

 跨域推荐(CDR)模型

将采用EMCDR中的跨域映射手法。设有领域A和B,一个MLP  负责将领域A的知识迁移到B(也即将A领域的用户隐向量变换到B领域),变换后的用户向量  能够被计算为(B到A同理):

 (PS:在推荐阶段,变换后的用户向量 将被用于冷启动用户推荐)

 跨域推荐模型的示意图如下所示:

在本地评分预测模型的预训练和跨域推荐模型(迁移映射)的训练都完毕之后,客户端将A和B领域的物品隐向量和迁移模型参数分别上传到A、B领域对应的服务器,由A、B两个服务器来分别对物品模型参数和跨领域迁移模型参数进行聚合。注意,用户模型参数要留在本地。此外,本文对于A和B领域的物品模型参数和迁移模型参数也是分别进行的平均,而不是混在一起进行平均

2.6 AAAI23 《Win-Win: A Privacy-Preserving Federated Framework for Dual-Target Cross-Domain Recommendation》[13]

本文不考虑用户间数据的隔离性,只考虑在两个相互隔离的领域间进行知识迁移,属于纵向类型。本文设计了一个正交变换矩阵+局部差分隐私(LDP)技术来进行用户embeddings的双向跨域迁移(本文的创新点在于双向迁移,即标题中的Win-Win,不过个人感觉这个创新点也太水)。本文方法整体的架构如下图所示:

首先,本文采用深度矩阵分解模型[16]得到用户和物品的embeddings(以领域A为例):

这里  为ratings矩阵  的第 i 行(对应第 i 个用户),  为ratings矩阵  的第 j 列(对应第 j 个物品)。

然后,本文引入一个正交矩阵来进行领域间的embeddings迁移。这里采用正交矩阵的原因是正交变换保内积,从而变换后的用户embeddings之间的相似度不变;此外,正交矩阵等于其转置,因此若已知 A 到 B 的变换矩阵的话,从 B 到 A 的变换能够直接使用其转置以简化学习过程与降低计算复杂度。设领域 A 的用户 i 的embeddings  变换到领域 B 去后表示为  ,领域 B 的用户 i 的embeddings  变换到领域 A 去后表示为  ,则我们有:

 这里  分别是领域 A 和 B 的正交变换矩阵,它们在本地更新完成(即更新为  )之后会相互交换并聚合,因此是一致同步且相等的。 [⋅]T⊤ 表示矩阵转置。  表示均值为0,方差为 \lambda 的Laplace噪声(其中方差用于控制噪声强弱)。 \lambda 越大,则噪声越大且越利于隐私保护。

 最后,文章设计了自适应embeddings融合机制来对领域原embeddings和变换过来的embeddings进行融合(仍以领域 A 为例),自适应的门控选择向量计算如下:

之后以此权重对用户的embeddings进行门控聚合:

直观地理解,若  和  差异越大(领域gap越大),则固守原领域embeddings  的旧知识就越多,接受  的新知识就越少。这在直观上确实可以在一定程度上缓解负迁移问题。

最后,作者运用得到的用户和物品的embeddings来计算内积相似度,并据此来计算归一化交叉熵损失(参考深度矩阵分解论文[16]):

2.7 AAAI23 《PPGenCDR: A Stable and Robust Framework for Privacy-Preserving Cross-Domain Recommendation》[14]

本文不考虑用户间数据的隔离性,只考虑在两个相互隔离的领域间进行知识迁移,属于纵向类型。本文的亮点在于通过GAN来在隐私保护的前提下对源域私有数据(即用户ratings)的分布进行建模,并将隐私保护后的源域数据做为知识迁移到目标域,以提高目标域的推荐表现。本文方法整体的架构如下图所示:

 如上图所示,本文由位于源域的隐私保护生成器模块(SPPG,包括SPP和GS两部分),和位于目标域的跨域推荐模块(RCDR)组成。隐私保护模块用于生成隐私保护后的源域用户数据 (注意,生成的  数据类型为浮点型),因为因为我不是搞隐私保护方向的。因此就不再对此详细展开叙述,感兴趣的童鞋可以去阅读原始论文。接下来重点叙述一下本文所设计的跨域推荐模块,也即论文如何同时利用源域的隐私保护数据和目标域的稀疏数据  来共同提高目标域的推荐表现。

 设用户 u 经过隐私保护后的ratings数据为  ( K 为源域的维度大小),本文设计了一个profile extraction模块来通过重构 来提取隐表征  做为用户的profile:

 这里 N 为batch size。此外,在目标域也采用Embedding Lookup操作由目标域的ratings RT 得到目标域的用户profiles ZT 和物品表征 VT (注意,目标域的 RT 数据类型为0-1型),并设计了profile alignment模块来进行源域和目标域用户的表征对齐:

 最后,推荐预测模块基于用户的profile ZT 及物品的表征 vT 来最小化交叉熵 

 这里  为用户 u 在目标域中的的预测偏好。

 为了增强目标域推荐表现的鲁棒性,作者还将 ZT 与 VT 沿维度方向进行解耦,解耦后的特征将会直接被用于预测目标域的用户偏好。为了完成用户表征的解耦,论文首先构建了一个cross correlation矩阵  来度量用户归一化表征的不同维度间的相似性,该矩阵的计算公式为 。为了达到解耦的目的,我们希望该矩阵的对角元素  去逼近1(同一个维度的表征一致),而其余元素 去逼近0(不同维度的表征相互独立)。相似地,本文也为物品表征 VT 构建了cross-correlation矩阵 并希望其满足同样的条件。最后,为了完成解耦操作需要去最小化下列鲁棒性正则项:

 综上所述,跨域序列推荐模块(RCDR)的总优化目标为:

 这里  和  为平衡不同类型损失的超参数。

 

2.8 IJCAI23 《Federated Probabilistic Preference Distribution Modelling with Compactness Co-Clustering for Privacy-Preserving Multi-Domain Recommendation》[15]

本文不考虑用户间数据的隔离性,只考虑在两个相互隔离的领域间进行相互知识迁移,属于纵向类型。本文的亮点在于设计了一个FPPDM模块来建模不同领域用户/物品的概率分布,并通过联邦学习的聚合策略来对用户/物品的分布信息进行跨域共享。此外,本文还提出了一种co-clustering方法来对具有相似特性的用户进行聚类(FPPDM++),以更好地利用相似用户的语义信息。

 首先,设第 k 个领域的用户和物品的交互矩阵  (这里 , NU 为用户数量,所有域用户重叠; NV 为第 k 个领域的物品数量),用户和物品的embeddings矩阵为  ,则我们可在此基础上运用GCN对用户/物品的偏好分布  进行建模:

 在对用户/物品的分布进行建模后,作者提出了下列的基于分布的度量学习loss:

这里  表示作为正例的用户-物品对, 表示第 i 个用户的负例物品。 D(⋅) 表示高斯分布之间的Wasserstein距离,可以被计算如下:

 在进行联邦聚合时,只需要对用户分布的均值和方差进行聚合即可:

 为了使得本地和全局的重叠用户分布能够一致地进行知识迁移,作者还设计了一个联邦正则项来减少本地和全局用户分布之间的距离:

 故所提出的FPPDM模块的领域 k 的总损失函数如下:

 这里  表示平衡超参数。
在FPPDM模块外,作者还设计了一个按照用户之间的相似度对用户进行的聚类策略(FPPDM++),由于和联邦关系不大再加上篇幅有限,这里就不继续展开叙述了,感兴趣的童鞋可以去阅读原始论文。

参考

  • [1] Elkahky A M, Song Y, He X. A multi-view deep learning approach for cross domain user modeling in recommendation systems[C]//Proceedings of the 24th international conference on world wide web. 2015: 278-288.
  • [2] 杨强. 迁移学习[M]. 机械工业出版社, 2020.
  • [3] Flanagan A, Oyomno W, Grigorievskiy A, et al. Federated multi-view matrix factorization for personalized recommendations[C]//Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer, Cham, 2020: 324-347.
  • [4] Hao Li, Mingkai Huang, Bing Bai, et al. A federated multi-view deep learning framework for privacy-preserving recommendations[C]//FTL-IJCAI. 2021.
  • [5] Liu S, Xu S, Yu W, et al. FedCT: Federated collaborative transfer for recommendation[C]//Proceedings of the 44th international ACM SIGIR conference on research and development in information retrieval. 2021: 716-725.
  • [6] Chen C, Wu H, Su J, et al. Differential Private Knowledge Transfer for Privacy-Preserving Cross-Domain Recommendation[C]//Proceedings of the ACM Web Conference 2022. 2022: 1455-1465.
  • [7] Meihan W, Li L, Tao C, et al. FedCDR: Federated Cross-Domain Recommendation for Privacy-Preserving Rating Prediction[C]//Proceedings of the 31st ACM International Conference on Information & Knowledge Management. 2022: 2179-2188.
  • [8] Man T, Shen H, Jin X, et al. Cross-domain recommendation: An embedding and mapping approach[C]//IJCAI. 2017, 17: 2464-2470.
  • [9] Koren Y, Bell R, Volinsky C. Matrix factorization techniques for recommender systems[J]. Computer, 2009, 42(8): 30-37.
  • [10] Wu C, Wu F, Lyu L, et al. FedCTR: Federated Native Ad CTR Prediction with Cross Platform User Behavior Data[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2022.
  • [11] 王晋东,陈益强. 迁移学习导论(第2版)[M]. 电子工业出版社, 2022.
  • [12] 周志华. 机器学习[M]. 清华大学出版社, 2016.
  • [13] Chen G, Zhang X, Su Y, et al. Win-win: a privacy-preserving federated framework for dual-target cross-domain recommendation[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2023, 37(4): 4149-4156.
  • [14] Liao X, Liu W, Zheng X, et al. PPGenCDR: A Stable and Robust Framework for Privacy-Preserving Cross-Domain Recommendation[[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2023, 4453-4461.
  • [15] Liu W, Chen C, Liao X, et al. Federated Probabilistic Preference Distribution Modelling with Compactness Co-Clustering for Privacy-Preserving Multi-Domain Recommendation[J].
  • [16] Xue H J, Dai X, Zhang J, et al. Deep matrix factorization models for recommender systems[C]//IJCAI. 2017, 17: 3203-3209.
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值