![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
联邦学习
文章平均质量分 89
想想虔诚怎么做
You only live once.
展开
-
No Fear of Heterogeneity: Classifier Calibration for Federated Learning with Non-IID Data
No Fear of Heterogeneity: Classifier Calibration for Federated Learning with Non-IID DataExisting Methods for non-IID dataclient drift mitigation通过修改Local 参与者的目标,因而Local模型可以在一定程度上保持与全局模型的一致aggregation scheme通过提升服务器端模型融合方案data sharing通过引入公开数据集或原创 2021-06-24 12:36:43 · 789 阅读 · 1 评论 -
Multi-Center Federated Learning
Multi-Center Federated LearningMotivation现有的联合学习方法通常采用单个全局模型来通过汇总其梯度来捕获所有用户的共享知识,而不管其数据分布之间的差异如何。但是,由于用户行为的多样性,将用户的梯度分配给不同的全局模型(即中心)可以更好地捕获用户之间数据分布的异质性。MethodologyMulti-center Aggregation原始联合学习使用一种中央模型将聚合结果存储在服务器中,这称为单中心聚合。 用户的行为数据通常是多种多样的,这意味着最佳的本地模原创 2021-06-24 07:52:48 · 864 阅读 · 0 评论 -
NeurIPS 2019 Federated Learning Accepted Paper
Improving Federated Learning Personalization via Model Agnostic Meta LearningProblemsFL applications generally face non-i.i.d and unbalanced data available to devices, which makes it challenging to ensure good performance across different devices with a原创 2021-04-13 07:45:47 · 536 阅读 · 0 评论 -
Federated Model Distillation with Noise-Free Differential Privacy
Federated Model Distillation with Noise-Free Differential PrivacyExisting WorkFedMDEach model is first trained on the public data to align with public logits, then on its own private data.CronusIn contrast, Cronus mixes the public dataset (with soft l原创 2021-03-22 16:26:14 · 1428 阅读 · 1 评论 -
Federated Learning: Strategies for Improving Communication Efficiency
Federated Learning: Strategies for Improving Communication Efficiency问题联邦学习的通信效率至关重要,考虑到naive implementation 的联邦学习要求每个client每轮发送一个完整的模型,对于大模型,这是bottleneck:不对称或者不一致的的网络连接上传下载速度,(上传速度远小于下载速度)假设考虑了一个理想的synchronized algorithms for FL:A subset of existing原创 2020-10-15 15:23:01 · 1770 阅读 · 7 评论 -
联邦学习基础知识总结
Federated LearningIntroductionDifferenceStandard machine learning approaches require centralizing the training data on one machine or in a datacenter.And Google has built one of the most secure and robust cloud infrastructures for processing this dat原创 2020-09-29 09:59:17 · 1335 阅读 · 1 评论 -
Advances and Open Problems in Federated Learning 总结翻译
摘要联邦学习(FL)是一种机器学习设置,在这种设置中,许多客户(例如移动设备或整个组织)在中央服务 器(例如服务提供商)的协调下协作地训练模型,同时保持训练数据分散。FL体现了集中数据收集和最 小化的原则,可以减轻由于传统的、集中的机器学习和数据科学方法所带来的许多系统隐私风险和成 本。在FL研究爆炸性增长的推动下,本文讨论了近年来的进展,并提出了大量的开放问题和挑战。MENU1.引言跨设备联...原创 2019-12-17 22:03:45 · 13866 阅读 · 4 评论 -
联邦学习 + 脏数据+Approaches to address the data skew problem in federated learning
Menu联邦学习脏数据脏数据的种类及处理方法数据缺失数据重复数据错误数据不可用联邦学习脏数据脏数据的种类及处理方法数据缺失缺一些记录,或者一条记录里缺一些值(空值),或者两者都缺。原因可能有很多种,系统导致的或人为导致的可能性都存在。如果有空值,为了不影响分析的准确性,要么不将空值纳入分析范围,要么进行补值。前者会减少分析的样本量,后者需要根据分析的计算逻辑,选择用平均数、零、或者等比...原创 2019-10-24 15:37:11 · 1316 阅读 · 0 评论 -
联邦学习 + 脏数据
Menu联邦学习脏数据脏数据的种类及处理方法数据缺失数据重复数据错误数据不可用联邦学习脏数据脏数据的种类及处理方法数据缺失缺一些记录,或者一条记录里缺一些值(空值),或者两者都缺。原因可能有很多种,系统导致的或人为导致的可能性都存在。如果有空值,为了不影响分析的准确性,要么不将空值纳入分析范围,要么进行补值。前者会减少分析的样本量,后者需要根据分析的计算逻辑,选择用平均数、零、或者等比...原创 2019-12-03 14:31:16 · 390 阅读 · 0 评论 -
联邦学习本身+机器视觉中深度学习所面临的对抗攻击
目录联邦学习本身联邦学习本身这给人工智能应用给机器学习带来的挑战是:如果机构之间的数据无法互通,一家企业一家机构数据量有限,或者是少数巨头公司垄断大量数据,而小公司很难获得数据,形成大大小小的“数据孤岛”。在这种没有权限获得足够多的用户数据的情况下,各个公司尤其是小公司,如何建模?在这种情况下,“联邦学习”的概念应运而生。所谓 “联邦学习”,首先是一个“联邦”。不同于企业之前的“各自为政”...原创 2019-10-23 23:18:59 · 15792 阅读 · 0 评论 -
联邦学习 - 基础知识+白皮书+杨强教授讲座总结+同态加密+ 差分隐私
联邦学习概念分类横向联邦学习纵向联邦学习联邦迁移学习优势概念联邦机器学习又名联邦学习,联合学习,联盟学习。联邦机器学习是一个机器学习框架,能有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模分类针对不同数据集,联邦学习分为横向联邦学习(horizontal federated learning)、纵向联邦学习(vertical federated l...原创 2019-10-06 10:51:02 · 25693 阅读 · 5 评论