简单理解什么叫联邦学习(全)

本篇博文以一篇综述为例,讲述什么叫联邦学习!!

《Federated Machine Learning:Concept and Applications》

该篇综述是杨强教授在2019年发表在ACM Transactions on Intelligent Systems and Technology (TIST)上的一篇综述论文,比较全面和系统的介绍了联邦学习的基本概念、分类和一些安全隐私问题等。下面是我个人结合本篇综述理解的一些笔记记录,比较精简,只保留了比较关键的内容或一点点理解,若想更全的理解本文,还得看原文,作者水平高!若想基本理解什么叫联邦学习,好好的读完这篇综述就够了,进一步理解可再读其他文章!

长文警告:大约1.3w字,请坐稳扶好!!!(已经精简了)

先附原文下载连接:查阅or下载

摘要

背景:如今人工智能仍然存在两个重大挑战:

  • 1)数据以孤岛的形式存在;
  • 2)数据隐私和安全问题。

引出:本文提出了可能的解决方案:一个更全面的安全联邦学习框架。该框架包括Horizontal(水平or横向)联邦学习、Vertical(垂直or纵向)联邦学习,以及联邦Transfer(迁移)学习。本文提供了联邦学习框架的定义、架构和应用程序,以及建立了基于联邦机制的组织之间建立数据网络,作为一种可以在不损害用户隐私的情况下共享知识知识指参数、梯度等 )的有效解决方案。

一、引言

大数据能驱动人工智能快速实现我们生活的各个方面,但现实世界的情况有些令人失望。除了少数行业,大多数领域只有有限的数据或劣质数据,使得人工智能技术的实现比我们想象中更困难。通过跨组织传输数据,是否能将数据融合到一个公共站点中?事实上,在许多情况下,打破数据源之间的障碍是非常困难的,甚至是不可能的。在大多数行业中,数据以古岛的 形式存在。由于行业竞争、隐私安全和复杂的管理程序,即使同一个公司不同部门之间的数据整合也面临巨大压力。将分散在全国各地和机构的数据整合起来几乎是不可能的。

同时,大公司对数据安全和用户隐私妥协的意识日益增强,对数据隐私和安全的重视已经成为世界范围内的重大问题。公共数据泄露消息如,最近facebook的数据泄露引起了广泛的抗议 [70] 。作为回应,世界各国都在加强保护数据安全和隐私的法律。

  • 中国在17年颁布了《网络安全法》和《民法通则》要求互联网企业不得泄露或篡改其收集的个人信息,在与第三方进行数据交易时,需确保协议的合同遵守法律数据保护义务。
  • 18年,欧盟实施了通用数据保护条例(GDPR) [19] ,它要求保护用户的个人隐私和数据安全,并给予用户的“被遗忘权”,即用户可以删除或撤回个人数据。

具体来说,人工智能中的传统数据处理模型往往涉及简单的数据交易模型,一方收集数据并将数据传输给另一方,另一方负责清理和融合数据。最后,第三方将获取集成数据并构建模型供其他方使用。模型通常是作为服务出售的最终产品。这种传统程序面临上述新数据法规和法律的挑战。因此,我们面临的困境是,数据是孤岛形式,但在多种情况下,我们被禁止收集、融合使用数据到不同的地方进行AI处理。如何合法解决数据碎片化的隔离问题,是当今人工智能研究人员和从业者面临的一大挑战。

二、联邦学习概述(重点章节)

2016年,联邦学习的概念由谷歌提出 [36, 37,41] ,其主要思想是基于分布在多个设备上的数据集构建机器学习模型,同时防止数据泄露。此外,数据按用户ID或设备ID的数据空间中是水平区分的。为扩展联邦学习概念以覆盖组织之间的协作学习场景,我们将原“联邦学习”扩展到所有保护隐私的分散式协作机器学习技术的一般概念。在本节中,提供了一个更全面的联邦学习定义,它考虑了数据分区、安全性和应用程序,还描述了联邦学习系统的工作流程系统架构

2.1 联邦学习定义

定义N个数据拥有者 { F 1 , . . . , F N } \{F_1,..., F_N\} {F1,...,FN} ,他们希望通过合并各自的数据 { D 1 , . . . , D N } \{D_1,..., D_N\} {D1,...,DN} 来训练机器学习模型。传统的方法是将所有数据放在一起并使用 D = D 1 ∪ D 2 . . . D N D=D_1\cup D_2 ...D_N D=D1D2...DN 训练模型 M S U M M_{SUM} MSUM。联邦学习系统是数据拥有者协同训练模型 M F E D M_{FED} MFED的一个学习过程,该过程中任何数据拥有者 F i F_i Fi都不会暴露其数据 D i D_i Di给其他人。另外, M F E D M_{FED} MFED的精度值表示为 V F E D V_{FED} VFED,应该非常接近 M S U M M_{SUM} MSUM的精度值 V S U M V_{SUM} VSUM。形式上, δ \delta δ是一个非负实数,如果满足
∣ V F E D − V S U M ∣ < δ |V_{FED}-V_{SUM}|<\delta VFEDVSUM<δ
我们说联邦学习算法是 δ \delta δ精度值损失。

2.2 联邦学习隐私

隐私=是联邦学习的基本属性之一,这需要安全模型和分析来提供有意义的隐私保证。在本节中,我们简要回顾和比较联邦学习的不同隐私技术,并确定防止间接泄露的方法和潜在挑战。

  • 安全多方计算(SMC):安全模型涉及多方,并在定义良好的模型框架中提供证明,以确保完全零知识,即每一方除了输入和输出之外一无所知。零知识是非常可取的,但是这种期望的特性通常需要复杂的计算协议并且可能无法有效实现。在某些情况下,如果提供安全保证,部分知识披露可能被认为是可以接受的。可以在较低的安全要求下使用SMC构建安全模型以换取效率 [16] 。最近,研究 [46] 使用SMC框架来训练具有两个服务器和半城实假设的机器学习模型。参考文献 [33] 使用MPC协议进行模型训练和验证,而无需用户透露敏感数据。Sharemind [8] 是最先进的SMC框架之一。文献 [44] 提供了一个具有诚实多方的3-PC模型[5,21,45] ,并在半城实和恶意假设中考虑安全性。这些工作要求参与者的数据在非共谋服务器之间秘密共享。
  • 差分隐私:另一种工作使用差分隐私 [18] 或k-匿名 [63] 技术来保护数据隐私 [1,12,42,61]。差分隐私、k-匿名和多样化 [3] 的方法涉及在数据中加入噪声,或使用泛化方法来掩盖某些敏感属性,直到第三方无法区分个体,从而使数据无法恢复到保护用户隐私。但是,这些方法的根源仍然要求将数据传输到其他地方,并这些工作通常涉及准确性和隐私之间的权衡。在 [23] 中,作者为联邦学习引入了一种差分隐私方法,以便通过在训练期间隐藏客户端的贡献来增强对客户端数据的保护。
  • 同态加密:机器学习过程中还采用同态加密 [53] ,通过加密机制下的参数交换来保护用户数据隐私 [24,26,48] 。与差分隐私保护不同,数据和模型本身不会传输,也不会被对方的数据猜到。因此,在原始数据层面泄露的可能性很小。最近的工作采用同态加密来集中和训练云上的数据[75,76] 。在实践中,加法同态加密 [2] 广泛使用,并且需要进行多项式近似来评估机器学习算法中的非线性函数,从而导致准确性和隐私性之间的权衡[4,35]
2.2.1 间接信息泄露

先前联邦学习的工作暴露了中间结果, 例如来自优化算法,如随机梯度下降(SGD) [41,58]的参数更新,但没有提供安全保证,当这些梯度与数据结构(如像素图)一起暴露时,实际上可能会泄漏重要的数据信息 [51] 。研究人员考虑了一种情况,即联邦学习系统的一个成员通过允许插入后门来学习他人数据,从而恶意攻击他人。在 [6] 中,作者证明了在联合全局模型中插入隐藏后门是可能的,并提出了一种新的“约束-规模”模型中毒方法来减少数据中毒。在 [43] 中,研究人员发现了协作机器学习系统中潜在的漏洞,即协作学习中各方使用的训练数据很容易受到推理攻击。他们表明,敌对的参与者可以推断出成员以及与训练数据子集相关的属性。他们还讨论了可能的防御措施。在 [62] 中,作者暴露了一个潜在的安全问题,与不同方之间的梯度交换有关,并提出了梯度下降方法的一个安全变体,并表明它可以容忍恒定分数的拜占庭工人。

研究人员也开始将区块链视为促进联邦学习的平台。在 [34] 中,研究人员考虑了一种区块链联邦学习(BlockFL)架构,其中移动设备的本地学习模型更新通过利用区块链进行交换和验证。他们考虑了最佳区块生成、网络可扩展性和健壮性问题。

2.3 联邦学习的分类

令矩阵 D i D_i Di表示每个数据拥有者 i i i持有的数据。矩阵的每行代表一个样本,每列代表一个特征。同时,一些数据集也可能包含标签数据,我们将特征空间表示为 X X X,标签空间表示为 Y Y Y,使用 I I I表示样本ID空间。例如,在金融领域标签可能是用户的信用;在营销领域的标签可能是用户的购买欲望;在教育领域, Y Y Y可能是学生的学位。特征 X X X,标签 Y Y Y和样本ID I I I构成了完整的训练数据集 ( I , X , Y ) (I, X, Y) (I,X,Y)。数据方的特征和样本空间可能不完全相同,我们根据数据在特征和样本ID空间中在各方之间的分布情况,将联邦学习分为水平联邦学习、垂直联邦学习和联邦迁移学习。

  • 1)水平(横向)联邦学习:即基于样本的联邦学习,旨在数据集共享相同特征空间但样本不同的场景。例如,两个区域的银行可能各自区域的用户群非常不同,且用户交集非常小。但是,他们的业务非常相似,因此特征空间是相同的。文献 [58] 提出了一种协作深度学习方案,参与者独立训练,并仅共享参数更新的子集。本文还介绍了一种在联邦学习框架下保护聚合用户更新隐私的安全聚合方案 [9] 。文献 [51] 使用加法同态加密进行模型参数聚合,以提供针对中央服务器的安全性。
    在这里插入图片描述
    [60] 中,提出了一种多任务式的联邦学习系统,允许多个站点在共享知识和保证安全的同时完成各自的任务。他们提出的多任务学习模型还可以解决高通信成本、掉队和容错问题。在 [41] 中,作者提出建立一个安全的客户机-服务器结构,其中联邦学习系统根据用户划分数据,并允许在客户机设备上构建的模型在服务器站点上协作,以构建一个全局联邦模型,过程确保了数据不泄露。同样,在 [36] 中,作者提出了提高通信成本的方法,以促进基于分布在移动客户端数据的集中模型的训练。最近,一种被称为深度梯度压缩 [39] 的压缩方法被提出,以大大降低大规模分布式训练的通信带宽。即总结为:
    X i = X j , Y i = Y j , I i ≠ I j , ∀ D i , D j , i ≠ j X_i=X_j, Y_i=Y_j, I_i\neq I_j, \forall D_i, D_j, i\neq j Xi=Xj,Yi=Yj,Ii=Ij,Di,Dj,i=j
    安全定义水平联邦学习系统通常假设参与者是诚实的,并对诚实且好奇的服务器是安全的 [9, 51] 。也就是说,只有服务器可以破坏(损害)数据参与者的隐私。这些工程都提供了安全证明。最近,另一种考虑恶意用户 [29] 的安全模型也被提出,带来了额外的隐私挑战。在训练结束时,通用模型和整个模型参数暴露给所有参与者。

  • 2)垂直(纵向)联邦学习:针对垂直分割的数据提出了保护隐私的机器学习算法,包括合作统计分析 [15] 、关联规则挖掘 [65] 、安全线性回归 [22, 32, 55] 、分类 [16] 和梯度下降 [68] 。最近,文献 [27, 49] 提出了一种垂直联邦学习方案来训练一个隐私保护的logistic回归模型。研究了实体分辨率对学习性能的影响,并将泰勒近似应用于损失函数和梯度函数,以便可以采用同态加密进行隐私保护计算。

    垂直联邦学习适用于两个数据集共享相同样本ID空间,但特征空间不同的情况。例如,同城有一家银行,另一家电子商务公司,他们的用户集可能包含该地区的大多数居民,因此他们的用户空间交集很大。但是, 由于银行记录了用户的收支行为和信用评级,而电子商务保留了用户的浏览和购买历史,所以他们的特征空间有很大不同。
    在这里插入图片描述

    垂直联邦学习是将这些不同的特征聚合在一起,并以保护隐私的方式计算训练损失和梯度,共同利用双方的数据建立模型的过程。因此,在这个体系中,我们有:
    X i ≠ X j , Y i ≠ Y j , I i = I j , ∀ D i , D j , i ≠ j X_i\neq X_j, Y_i\neq Y_j, I_i= I_j, \forall D_i, D_j, i\neq j Xi=Xj,Yi=Yj,Ii=Ij,Di,Dj,i=j
    安全定义垂直联邦学习系统通常假设参与方诚实且好奇。例如,在两方不串通的情况下,最多其中一方收到对手的损害。安全定义是,攻击者只能从它损坏的客户端学习数据,而不能从其他客户端学习超出输入和输出揭示的数据。我们在学习结束时,每一方只持有与自己特征相关的模型参数,因此在推理时,两方也需要协作生成输出。

  • 3)联邦迁移学习适用于两个数据集不仅样本不同,而且特征空间也不同的情况。考虑两家机构,一家中国的银行,另一家美国的电子商务公司。由于地域限制,两个机构的用户有很小的交集。另一方面,由于业务不同,双方的特征空间只有小部分重叠。在这种情况下,可以用联邦迁移学习 [50] 技术为联邦学习的整个样本和特征空间提供解决方案。特别地,使用有限的公共样本集学习两个特征空间之间的共同表示,然后将其用于获得只有单边特征的样本的预测。因此,它处理的问题超出了现有联邦学习算法的范围
    X i ≠ X j , Y i ≠ Y j , I i ≠ I j , ∀ D i , D j , i ≠ j X_i\neq X_j, Y_i\neq Y_j, I_i\neq I_j, \forall D_i, D_j, i\neq j Xi=Xj,Yi=Yj,Ii=Ij,Di,Dj,i=j
    安全定义:一个联邦迁移学习系统通常涉及双方。

2.4 联邦学习系统的架构

一般水平和垂直联邦学习系统的架构在设计上有很大区别。

2.4.1 水平联邦学习

如图,在该系统中,k个具有相同数据结构的参与者通过参数或云服务器协作学习机器学习模型。假设参与者是诚实的,而服务器是诚实但好奇的,因此不允许任何参与者向服务器泄露信息。有以下四个步骤:
在这里插入图片描述

  • Step 1:参与者本地计算训练梯度,使用加密、差分隐私或秘密共享技术对梯度选择进行掩码,并将掩码结果发送给服务器;
  • Step 2:服务器在不了解任何参与者信息的情况下执行安全聚合;
  • Step 3:服务器将聚合的结果反馈给参与者;
  • Step 4:参与者用解密的梯度更新他们各自的模型。

通过以上不断的迭代,直到损失函数收敛,完成整个训练过程。

安全分析:使用SMC [9] 或同态加密 [51] 进行梯度聚合的情况下,证明了上述体系结构可以防止半城实服务器的数据泄露。但是它可能会受到恶意参与者在协作学习过程中训练生成对抗网络(GAN)的另一种安全模型的攻击 [29]

2.4.2 垂直联邦学习

假设公司A和B想联合训练一个机器学习模型,他们的业务系统都有自己的数据。此外,公司B也有模型需要预测的标签数据。出于数据隐私和安全的考虑,A和B不能直接交换数据。为了确保训练过程中数据的保密性,引入了第三方合作者C。在这里假设C是诚实的,但A和B是诚实但好奇的。
在这里插入图片描述
Part 1. 加密实体对齐。由于他们的用户组不同,系统使用基于加密的用户ID对齐技术 [38,56] 来确认双方的普通用户,而不需要A和B暴露各自的数据。在实体对齐期间,系统不会公开彼此没有重叠的用户。

Part 2. 加密模型训练。确定公共实体后,可以使用公共实体的数据来训练机器学习模型。

  • Step 1:协作者C创建加密对,向A和B发送公钥;
  • Step 2:A和B加密并交换梯度和损耗计算的中间结果;
  • Step 3:A和B分别计算加密梯度和添加额外掩码,B还计算加密损失,A和B向C发送加密的值;
  • Step 4:C解密并将解密后的梯度和损耗发送回A和B;A和B获取梯度,更新相应的模型参数。

这里以线性回归和同态加密为例说明训练过程。为了用梯度下降法训练线性回归模型,需要对其损失和梯度进行安全计算。假设学习速度为 η \eta η,正规化参数为 λ \lambda λ,数据集 { x i A } i ∈ D A \{x^A_i\}_{i\in D_A} {xiA}iDA { x i B , y i } i ∈ D B \{x^B_i, y_i\}_{i\in D_B} {xiB,yi}iDB,模型参数 Θ A \Theta _A ΘA Θ B \Theta _B ΘB分别对应 x i A , x i B x^A_i, x^B_i xiA,xiB的特征空间。训练目标为:
m i n Θ A , Θ B ∑ i ∣ ∣ Θ A x i A + Θ B x i B − y i ∣ ∣ 2 + λ 2 ( ∣ ∣ Θ A ∣ ∣ 2 + ∣ ∣ Θ B ∣ ∣ 2 ) . min_{\Theta_A, \Theta_B}\sum_i ||\Theta_Ax^A_i+ \Theta_Bx^B_i-y_i||^2+\frac {\lambda}{2}(||\Theta_A||^2+||\Theta_B||^2). minΘA,ΘBi∣∣ΘAxiA+ΘBxiByi2+2λ(∣∣ΘA2+∣∣ΘB2).
u i A = Θ A x i A , u i B = Θ B x i B u^A_i=\Theta_Ax^A_i, u^B_i=\Theta_Bx^B_i uiA=ΘAxiA,uiB=ΘBxiB,加密损失为:
[ [ L ] ] = [ [ ∑ i ( ( u i A + u i B − y i ) ) 2 + λ 2 ( ∣ ∣ Θ A ∣ ∣ 2 + ∣ ∣ Θ B ∣ ∣ 2 ) ] ] . [[L]]=[[\sum_i((u^A_i+u^B_i-y_i))^2+\frac {\lambda}{2}(||\Theta_A||^2+||\Theta_B||^2)]]. [[L]]=[[i((uiA+uiByi))2+2λ(∣∣ΘA2+∣∣ΘB2)]].
其中加法同态加密表示为 [ [ ⋅ ] ] [[·]] [[]]。令 [ [ L A ] ] = [ [ ∑ i ( ( u i A ) 2 ) + λ 2 Θ A 2 ] ] , [ [ L B ] ] = [ [ ∑ i ( ( u i B − y i ) 2 ) + λ 2 Θ B 2 ] ] [[L_A]]=[[\sum_i((u^A_i)^2)+\frac {\lambda}{2}\Theta^2_A]], [[L_B]]=[[\sum_i((u^B_i-y_i)^2)+\frac {\lambda}{2}\Theta^2_B]] [[LA]]=[[i((uiA)2)+2λΘA2]],[[LB]]=[[i((uiByi)2)+2λΘB2]],并 [ [ L A B ] ] = 2 ∑ i ( [ [ u i A ] ] ( u i B − y i ) ) [[L_{AB}]]=2\sum_i([[u^A_i]](u^B_i-y_i)) [[LAB]]=2i([[uiA]](uiByi)),其中
[ [ L ] ] = [ [ L A ] ] + [ [ L B ] ] + [ [ L A B ] ] . [[L]]=[[L_A]]+[[L_B]]+[[L_{AB}]]. [[L]]=[[LA]]+[[LB]]+[[LAB]].
相同地,令 [ [ d i ] ] = [ [ u i A ] ] + [ [ u i B − y i ] ] [[d_i]]=[[u^A_i]]+[[u^B_i-y_i]] [[di]]=[[uiA]]+[[uiByi]],则梯度为:
[ [ ∂ L ∂ Θ A ] ] = ∑ i [ [ d i ] ] x i A + [ [ λ Θ A ] ] . [[\frac {\partial L}{\partial \Theta_A}]]=\sum_i [[d_i]]x^A_i+[[\lambda \Theta_A]]. [[ΘAL]]=i[[di]]xiA+[[λΘA]].
[ [ ∂ L ∂ Θ B ] ] = ∑ i [ [ d i ] ] x i B + [ [ λ Θ B ] ] . [[\frac {\partial L}{\partial \Theta_B}]]=\sum_i [[d_i]]x^B_i+[[\lambda \Theta_B]]. [[ΘBL]]=i[[di]]xiB+[[λΘB]].
垂直联邦学习的训练步骤:线性回归

-Party AParty BParty C
Step 1初始化 Θ A \Theta_A ΘA初始化 Θ A \Theta_A ΘA创建加密密钥对,向A和B发送公钥
Step 2计算 [ [ u i A ] ] , [ [ L ] ] [[u^A_i]], [[L]] [[uiA]],[[L]],并发送给B计算 [ [ u i B ] ] , [ [ d i B ] ] , [ [ L ] ] [[u^B_i]], [[d^B_i]], [[L]] [[uiB]],[[diB]],[[L]],发送 [ [ d i B ] ] [[d^B_i]] [[diB]]给A,发送 [ [ L ] ] [[L]] [[L]]给C
Step 3初始化 R A R_A RA,计算 [ [ ∂ L ∂ Θ A ] ] + [ [ R A ] ] [[\frac {\partial L}{\partial \Theta_A}]]+[[R_A]] [[ΘAL]]+[[RA]]并发送给C初始化 R B R_B RB,计算 [ [ ∂ L ∂ Θ B ] ] + [ [ R B ] ] [[\frac {\partial L}{\partial \Theta_B}]]+[[R_B]] [[ΘBL]]+[[RB]]并发送给CC解密 L L L,发送 ∂ L ∂ Θ A + R A \frac {\partial L}{\partial \Theta_A}+R_A ΘAL+RA给A, ∂ L ∂ Θ B + R B \frac {\partial L}{\partial \Theta_B}+R_B ΘBL+RB给B
Step 4更新 Θ A \Theta_A ΘA更新 Θ B \Theta_B ΘB
获得了什么? Θ A \Theta_A ΘA Θ B \Theta_B ΘB

垂直联邦学习的评估步骤:线性回归

-Party AParty BParty C
Step 0发送用户ID i i i给A和B
Step 1计算 u i A u^A_i uiA发送给C计算 u i B u^B_i uiB发送给C获得结果 u i A + u i B u^A_i+u^B_i uiA+uiB
如上面两个表,在实体对齐和模型训练过程中,A和B的数据保存在本地,训练中的数据交互不会导致数据隐私泄露。为了防止C从A或B哪里学习到信息,A和B可以通过添加加密的随机掩码对C进一步隐藏他们的梯度。因此,双方在联邦学习的帮助下合作实现了通用的训练模型。因为在训练过程中,每方接收到的损失和梯度与他们在没有隐私约束的情况下,用在一个地方收集的数据共同构建模型时所接收到的损失和梯度完全相同,即该模型是无损的。每次迭代中,A和B之间发送的信息以重叠样本的数量为尺度。因此,采用分布式并行计算技术可以进一步提高算法的效率

安全分析:在训练阶段没有透露任何信息给C,因为C学习的都是掩码梯度,并且掩码矩阵的随机性和保密性得到保证 [16] 。在上面协议中,A方每一步都学习它的梯度,但这不足以让A从B学习任何信息,因为标量乘积协议的安全性是基于无法解决n多于n个未知数的方程 [16, 65] 。这里假设样本数 N A N_A NA远大于 n A n_A nA,其中 n A n_A nA是特征数。同样,B方无法从A哪里获取任何信息,因此证明了协议的安全性。注意,这里假设双方都是半城实的。若一方是恶意的,通过伪造输入来欺骗系统。

2.4.3 联邦迁移学习

假设上面垂直联邦学习示例中,A方和B方只有非常小的重叠样本集,我们感兴趣学习A方所有数据集的标签。上一节中描述的架构到目前为止仅有效对于重叠数据集。为了将其覆盖范围扩展到整个样本空间,引入迁移学习。具体而言,迁移学习通常涉及到学习一方A和一方B的特征之间的共同表示,并通过利用源域一方的标签来最大限度地减少预测目标域一方标签的错误。因此,A方和B方的梯度计算与垂直联邦学习场景中的梯度计算不同。在推理时,仍然需要双方计算预测结果。

2.4.4 激励机制

为了使不同组织之间的联邦学习完成商业化,需要建立一个公平的平台和激励机制 [20] 。在建立模型之后,模型的性能将在实际应用程序中得到体现,并且这种性能可以永久的数据记录机制中记录下来,如区块链。模型的有效性取决于数据提供者对系统的贡献。上述架构的实现不仅考虑了多个组织之间的隐私保护和协作建模的有效性,而且还考虑了如何奖励贡献更多数据的组织,以及如何通过共识机制实现激励。因此,联邦学习是一种“闭环”的学习机制。

三、 相关工作

3.1 隐私保护机器学习

联邦学习可以看作是一种隐私保护的去中心化协作机器学习,因此它与多方隐私保护机器学习有着密切的关系。(后面作者介绍了许多相关的方案,详细内容见文章3.1节,内容比较多)

3.2 联邦学习vs分布式机器学习

水平联邦学习乍一看有点类似分布式机器学习。分布式机器学习覆盖了很多方面,包括训练数据的分布式存储、计算任务的分布式操作、模型结果的分布式分布等。对于水平联邦学习,工作节点表示数据所有者。它对本地数据有完全的自主权,可以决定何时以及如何加入联邦学习。在参数服务器中,中心节点始终处于控制状态,因此联邦学习面临着更加复杂的学习环境。其次,联邦学习强调模型训练过程中数据所有者的数据隐私保护。有效的数据隐私保护措施可以更好地应对未来日益严格的数据隐私和数据安全监管环境。

3.3 联邦学习vs边缘计算

联邦学习可以看作是边缘计算的操作系统,因为它提供了协调和安全的学习协议。在 [69] 中,作者考虑了使用基于梯度下降方法训练的一般机器学习模型。从理论角度分析了分布式梯度下降算法的收敛界,并在此基础上提出了一种控制算法,该算法在给定资源预算的情况下,在局部更新和全局参数聚合之间进行最优权衡,使损失函数最小化。

3.4 联邦学习vs联邦数据库系统

联邦数据库系统 [57] 是集成多个数据库单元并将集成系统作为一个整体进行管理的系统。为了实现与多个独立数据库的互操作,提出了联邦数据库的概念。联邦数据库系统通常对数据库单元使用分布式存储,而实际上每个数据库单元中的数据是异构的。

因此,它在数据的类型和存储方面与联邦学习有很多相似之处。但是,联邦数据库系统在相互交互的过程中不涉及任何隐私保护机制,所有数据库单元对管理系统是完全可见的。此外,联邦数据库系统的重点是数据的插入、删除、搜索、合并等基本操作,而联邦学习的目的是在保护数据隐私的前提下,为每个数据所有者建立一个联合模型。

四、应用

作为一种创新的建模机制,可以在不损害数据隐私和安全的情况下,对来自多个方面的数据进行统一模型的训练,联邦学习在销售、金融和许多其他行业具有广阔的应用前景。

以智能零售为例。其目的是利用机器学习技术为客户提供个性化服务,主要包括产品推荐和销售服务。对于数据隐私和数据安全的保护,银行、社交网站和电子购物网站之间的数据壁垒很难突破。联邦学习为我们构建跨企业、跨数据、跨领域的大数据和人工智能生态圈提供了良好的技术支持。

可以使用联合学习框架进行多方数据库查询,而不暴露数据。具体来说,我们可以利用联邦学习的加密机制,对双方的用户列表进行加密,然后将加密列表在联邦中进行交集。最终结果的解密将给出多方借款者的列表,而不会将其他“优秀”用户暴露给另一方。

智能医疗是另一个将从联合学习技术的崛起中受益匪浅的领域。疾病症状、基因序列、医疗报告等医疗数据非常敏感和私密,但医疗数据难以收集,存在于孤立的医疗中心和医院。联合学习与迁移学习相结合是实现这一目标的主要途径。迁移学习可以用来填补缺失的标签,从而扩大可用数据的规模,进一步提高训练模型的性能。因此,联邦迁移学习将在智能医疗的发展中发挥关键作用,并可能将人类医疗提升到一个全新的水平。
在这里插入图片描述

五、联邦学习和企业数据联盟

联邦学习的商业模式为大数据的应用提供了新范式。当各个机构所占用的孤立数据无法产生理想的模型时,联合学习机制使机构和企业可以共享一个统一的模型,而不需要进行数据交换。此外,通过区块链技术的共识机制,联邦学习可以制定公平的利益分配规则。数据拥有者,无论他们拥有的数据有多大,都会有动力加入数据联盟,并获得自己的利润。我们认为,建立数据联盟的商业模式和联合学习的技术机制应该共同进行。

六、总结与展望

数据的隔离和对数据隐私的重视正成为人工智能的下一个挑战,而联邦学习给我们带来了新希望。本文简要介绍了联邦学习的基本概念、体系结构和技术,并讨论了它的各种应用中的潜力。预计不久将来,联邦学习将打破行业间的壁垒,建立一个数据和知识共享、安全共享的社区,并根据每个参与者的贡献公平分配收益

个人总结:本章的重点在第二章节,要充分理解水平(横向)、垂直(纵向)和迁移联邦学习的基本概念,以及他们相关的定义,特别是要注意安全定义,都是假设参与方是诚实但好奇的,恶意参与方可能需要再具体分析了。特别注意,横向和纵向联邦学习的区别,这两种在其他文献或方案中用的比较多。横向联邦学习图中,可以注意到参与方是N个,而纵向联邦学习图中,参与方是两方,这时候可以考虑下是否纵向也适合N方参与呢。另外,作者距离了逻辑回归模型的场景下训练,而之后的研究还有基于树、基于神经网络模型等需要进一步思考。最后,在第二章的2.2节和第三章,考虑了与其他技术相结合探讨隐私问题或应用前景,如安全多方计算、差分隐私、同态加密和区块链等,这些方面都可能是以后研究的重点。


(终于呕心沥血码完字了/(ㄒoㄒ)/~~!)

  • 32
    点赞
  • 64
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值