FL
文章平均质量分 86
王洛伊
这个作者很懒,什么都没留下…
展开
-
异构联邦持续学习的精确遗忘--ACCURATE FORGETTING FOR HETEROGENEOUS FEDERATED CONTINUAL LEARNING
无限任务池: 客户端的任务从任务存储库中随机选择,导致俩个客户端可能不共享任何公共任务特征偏差:实验设置时,放大不同客户端的偏差。原创 2024-06-19 20:43:55 · 305 阅读 · 0 评论 -
FedAsync Asynchronous Federated Optimization
基线算法是引入的FedAvg,它实现了同步联邦优化。对于fedag,在每个epoch中,随机选择k = 10个设备启动本地更新。,也就是说,服务器在接收到本地模型时立即更新全局模型。服务器和工作线程之间的通信是非阻塞的。因此,服务器和工作人员可以随时更新模型而不需要同步,这对于设备具有异构条件时是有利的。数据集:CIFAR-10和WikiText-2。训练集被划分为n=100个设备。小批量大小分别为50和20。我们用不同的学习率γ、正则化权值ρ、混合超参数α和过时性来测试FedAsync。原创 2024-03-05 15:37:48 · 860 阅读 · 0 评论 -
VAFL---A Novel Optimized Asynchronous Federated Learning Framework
面临的问题:网络或计算资源的差异–> 客户不会同时更新梯度,这可能需要更多的时间等待解决方案:提出了一种新颖的 AFL 框架 VAFL。VAFL可以减少约51.02%的通信次数,平均通信压缩率为48.23%,并且使模型收敛速度更快。原创 2024-01-23 15:40:06 · 829 阅读 · 1 评论 -
基于知识蒸馏的的FL --> FedGen:Data-Free Knowledge Distillation for Heterogeneous Federated Learning
传统的知识蒸馏解决用户异质的问题:通过使用异构用户的聚合知识来改进服务器模型,这种方法依赖于代理数据集(不符合实际)。并且聚合的知识没有被充分利用来指导局部模型学习,这可能反过来影响聚合模型的质量。提出了一种无数据的知识蒸馏方法来解决异构 FL。服务器学习一个轻量级生成器以无数据的方式集成用户信息;然后将其广播给用户,用学到的知识调节本地训练作为归纳偏置。原创 2024-01-16 22:44:53 · 1434 阅读 · 1 评论