自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 《Federated Meta-Learning with Fast Convergence and Efficient Communication》论文阅读

基于初始化的元学习算法,如MAML(),以对新任务的快速适应和良好泛化而闻名,这使得它特别适合于联邦设置,其中分散的训练数据是非iid和高度个性化的。受此启发,我们提出了一个联邦元学习框架,它与先前的联邦学习工作有很大的不同。我们的工作是元学习方法和联邦学习的桥梁。在元学习中,参数化算法(或元学习者)通过元训练过程从大量任务中缓慢学习,其中算法在每个任务中快速训练一个特定的模型。一个任务通常由组成,它们彼此不相交。在支持集上训练特定任务的模型,然后在查询集上进行测试,测试结果用于更新算法。

2023-10-10 09:23:43 139 1

原创 《LEAF A Benchmark for Federated Settings》论文阅读

长期学习,以及个性化学习模式的开发。为了证明 LEAF 的模块性,我们将其 "数据集 "模块纳入了三个新的实验管道:一个是为每个设备训练纯本地模型(在 CelebA 和我们的合成数据集上),一个是忽略设备之间的自然分区,即混合所有数据(在 Reddit 上),还有一个是我们使用流行的元学习方法 Reptile [27](在 FEMNIST 上)。我们的工作旨在弥合流行且可用于基准测试的人工数据集与那些实际捕获联合场景特征的人工数据集之间的差距,但到目前为止,这些数据集要么是专有的,要么难以处理。

2023-10-06 20:47:15 106 1

原创 《FedMD Heterogenous Federated Learning via Model Distillation》论文阅读

《FedMD: Heterogenous Federated Learning via Model Distillation》 论文阅读NeurIPS 2019文章目录《FedMD: Heterogenous Federated Learning via Model Distillation》 论文阅读1 Introduction2 Method3 Results4 Discussion and conclusion5 复现1 Introduction在这项工作中,我们关注的是不同类型的异质性:

2023-10-03 20:27:48 241 2

原创 《Federated Learning with Unbiased Gradient Aggregation and Controllable Meta Updating》论文阅读

联邦学习(FL)旨在在由大量智能边缘设备组成的去中心化系统中训练机器学习模型。联合平均(FedAvg)是 FL 设置中的基本算法,提出了设备上训练和模型聚合,以避免传输原始数据带来的潜在的沉重通信成本和隐私问题。然而,通过理论分析,我们认为:1)局部更新的多个步骤会导致梯度偏差;2)预期目标分布与遵循 FedAvg 训练范式的优化目标之间存在不一致。

2023-09-26 19:20:34 103 1

原创 《One-Shot Federated Learning》论文阅读

我们提出了一次性联邦学习,其中中央服务器在单轮通信中通过联邦设备网络学习全局模型。我们的方法利用集成学习和知识聚合,AUC 相对于本地基线平均相对增益 51.5%

2023-09-24 10:02:24 259 1

原创 《Practical Secure Aggregation for Federated learning on User-Held Data》论文阅读

题目:用于用户持有数据联合学习的实用安全聚合

2023-09-17 15:59:34 251 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除