【论文笔记】Personalized Federated Learning with Theoretical Guarantees: A MAML Approach

论文笔记
摘要由CSDN通过智能技术生成

Personalized Federated Learning with Theoretical Guarantees: A Model-Agnostic Meta-Learning Approach(联邦个性化元学习)


Guarantees: A Model-Agnostic Meta-Learning
Approach(联邦个性化元学习))

创新性

传统联邦学习的目标是跨多个计算单元(用户)训练模型,用户与一个公共的中央服务器进行通信,而无需交换他们的数据样本,利用了所有用户的计算能力,并使得用户们的模型在更大的数据点集上进行训练时获得更丰富的模型。**这种机制只为所有用户开发了一个共同的输出,并没有使模型适应每个用户。**特别是,在用户的基础数据分布不相同的异构环境中,通过最小化平均损失获得的全局模型一旦应用于每个用户的本地数据集,可能会表现得很差。
本文研究了联邦学习的一种个性化变体,受MAML的启发,将其联系到FedAvg,提出了Per-FedAvg。其目标是找到一个在所有用户之间共享的初始点,,当前或新用户可以通过执行一个或几个梯度下降步骤来轻松适应他们的本地数据集。从而保留了联邦学习体系结构的所有好处,并通过结构为每个用户提供了更个性化的模型。

本篇论文的贡献

研究了 FedAvg 算法的个性化变体,称为 Per-FedAvg,旨在解决提出的个性化 FL 问题。
①详细阐述了Per-FedAvg与原始 FedAvg 算法的联系,并讨论了实施 Per-FedAvg 时需要考虑的一些考虑因素。
②论述了提出的 Per-FedAvg 算法在非凸损失函数下的收敛特性。
③通过分布距离来衡量不同用户的数据异质性和数据分布的接近性,研究了其对 Per-FedAvg 的影响。

Per-FedAvg算法步骤

①FedAvg服务器优化目标:
在这里插入图片描述
其中, f i f_{i} fi表示用户的本地损失函数:
在这里插入图片描述

②Per-FedAvg:假设每个用户获取初始点并使用梯度下降的一步对其自己的损失函数进行更新,服务器优化目标转变为:
在这里插入图片描述
其中,中定义与用户 i 关联的元函数 F i ( w ) F_{i}(w) Fi(w)表示为:
在这里插入图片描述
第一步:在每一轮中,服务器选择一小部分大小为 rn (r ∈ (0, 1]) 的用户并将其当前模型参数 w k w_{k} wk<

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值