LG-Fedavg

LG-Fedavg

贡献(Abstract)

  1. local representation learning on each device: for learning useful and compact features from raw data (看不懂,这一点在论文里没有体现)
  2. 减小了服务器和客户端之间的通信开销
  3. for fair representation learning (没仔细看)
  4. 通过个性化模型解决non-i.i.d问题 (参考)

core idea

client 先学习本地的local representation(对应浅层网络?因为浅层网络不参与聚合),之后global model 操作 higher-level representation (指上传给服务器的深层网络)

The core idea of our method is to augment federated learning with local representation learning on each device before a global model operating on higher-level representation is trained on the data(now as representations rather than raw data) from all device.

由此对应:

本地特征
浅层网络
全局特征
深层网络

推测:每个模型的深层网络之间接近,因为提取的是全局特征;
浅层网络之间距离远,因为提取的是本地特征

workflow (Local Global Federated Averaging)

client部分

每个client都维护两个模型:local net和global net,global net 只更新深层部分。

  1. client 先更新local net 并将更新后的local net 的深层部分上传给server
  2. server对各local net的深层部分做聚合得到 global net 的深层部分,并将 global net 的深层部分下发给clients
  3. client 用 global net 的深层部分替代local net,得到 client 端维护的global net,并对比global net 和 local net 在本地数据集上的acc,acc较好的global net将取代local net,否则local net 不变。

server部分

  1. 每轮训练中都负责聚合local model的深层部分(只交换模型的深层部分,保留浅层部分,以保留在本地数据集上的准确性,似乎是可以理解的)
  2. 最终的global模型由聚合所有的完整local model得到(存疑,相当于模型的浅层部分只聚合一次,按道理效果会非常不好,但文中实验里效果比fedavg只差一点点,我的理解是浅层的聚合频率上升应该是提高全局模型泛化性的手段)
    在这里插入图片描述
最终global model效果好的一个可能的解释

如果要提高全局模型的准确率,local representation按道理应该多聚合,因为local representation的部分,如果一直自己训练,很容易过拟合,但是文中2.2节global aggregation似乎给出了解释:

We argue that this synchronizes the local and global models: while local models can flexibly fit the data distribution on their device, the global model acts as a regularizer to synchronize the representations from all devices: each local model cannot overfit to local data because otherwise, the global model would incur a high loss.在这里插入图片描述

全局模型的拼接会作为正则项约束浅层模型对local representation提取过程中过拟合的问题,否则训练的loss会升高。(训练的过程中又不是只更新浅层模型,如果深层模型一起更新感觉没有这个效果了呀!)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值