联邦学习
文章平均质量分 94
记录学习过程
nooobme
绝不能躺平
展开
-
从零开始学FL(更新中
网址FedAI官网:https://www.fedai.org/ 微众银行+杨强教授团队的联邦学习FATE框架代码:https://github.com/WeBankFinTech/FATE (FATE 实现了基于同态加密和多方计算(MPC)的安全计算协议,它支持联邦学习架构和各种机器学习算法的安全计算,包括逻辑回归、基于树的算法、深度学习和转移学习 介绍搭建) 谷歌联邦迁...原创 2019-10-30 20:58:02 · 861 阅读 · 0 评论 -
Federated Machine Learning:Concept and Applications
https://www.cnblogs.com/lucifer1997/p/11223964.htmlhttps://blog.csdn.net/qq_36375505/article/details/88554005https://blog.csdn.net/weixin_44774630/article/details/97529260?utm_source=app关键技术:差分隐私D...原创 2019-10-30 20:20:47 · 1175 阅读 · 0 评论 -
深度学习的全面隐私分析(被动和主动的白盒推理攻击集中式和联合式学习)
一、摘要深度神经网络在记忆训练数据信息时容易受到各种推理攻击。我们设计了白盒推理攻击来对深度学习模型进行全面的隐私分析。我们通过完全训练模型的参数和训练过程中模型的参数更新来测量隐私泄露。针对被动推理攻击者和主动推理攻击者,分别设计了集中学习和联合学习的推理算法,并假设了不同的对手先验知识。我们评估针对深度学习算法的新白盒成员推理攻击,以追踪它们的训练数据记录。我们表明,将已知的黑盒攻击直...翻译 2019-10-29 10:24:54 · 7895 阅读 · 3 评论 -
Differentially Private Federated Learning: A Client Level Perspective
介绍我们的目标并不是只保护一个数据点。相反,我们希望确保一个学习模型不会显示客户是否参与了分散的培训。这意味着客户机的整个数据集受到保护,不受来自其他客户机的差异攻击。我们的主要贡献:首先,我们展示了在联合学习中保持较高的模型性能时,客户机的参与是可以隐藏的。我们证明了我们提出的算法可以在模型性能损失很小的情况下实现客户级差异隐私。与此同时发表的一项独立研究[6]提出了一个类似的客户级dp程序...翻译 2019-10-17 20:23:45 · 3965 阅读 · 0 评论 -
FL中隐私和安全性问题
A.隐私保护FL的主要目标之一是保护参与者的隐私,参与者只需要共享训练模型的参数,而不需要共享他们的实际数据。然而,最近的一些研究表明,恶意的参与者仍然可以根据他们共享的模型从其他参与者那里推断出敏感信息,例如性别、职业和位置。例如,在[137]中,当在FaceScrub[138]数据集上训练一个二元性别分类器时,作者表明,他们可以通过检查共享模型来推断某个参与者的输入是否包含在数据集中,其准确...翻译 2019-10-13 14:05:43 · 1881 阅读 · 3 评论 -
Federated Learning in Mobile Edge Networks: AComprehensive Survey(翻译)
名词:联邦学习(FL)、ML、MECBAA(宽带模拟聚合)、CNN(卷积神经网络)、CV(计算机视觉)、DDQN(双深度Q网络)、DL(深度学习)DNN(深度神经网络)、DP(差分隐私)、DQL(深度Q学习)、DRL(深度强化学习)、FedAvg(联邦平均)、FL(联合学习)、GAN(对抗网络)、IID(独立和同一分布)loT(物联网,车联网)、LSTM(长短期记忆)MEC(移动边缘计...翻译 2019-10-16 20:18:26 · 8489 阅读 · 1 评论