异步联邦论文学习--1

标题:Asynchronous Federated Optimization

来源:https://doi.org/10.48550/arXiv.1903.03934

cite:Xie C, Koyejo S, Gupta I. Asynchronous federated optimization[J]. arXiv preprint arXiv:1903.03934, 2019.

背景引言总结:

    由于FL有三个特性:

        1、不频繁的任务激活:对于边缘的弱设备,只有当设备空闲、充电并连接到未计量网络时,才执行学习任务。

        2、 不频繁的交流:边缘设备和远程服务器之间的连接可能经常不可用、缓慢或昂贵(就通信成本或电池电量使用而言)。

        3、 Non-IID训练数据:对于联合学习,不同设备上的数据是不相交的。

   

    以上特性会导致采用同步FL时的训练时长较长,因为会存在掉队者。

(PS:在同步FL中,server端预先确定参与本轮训练的client群,当且仅当所有client都上传本地模型时,server端才会执行全局模型聚合。)

    因此引出异步联邦算法解决掉队者和异构带来的延迟问题,其关键思想是server端接收到一个新的本地模型,立即更新,不等待其他本地模型。

论文贡献总结:

        •提出了一种新的异步联邦优化算法和原型系统设计。

        •证明了所提出的非凸问题的有限族方法的收敛性(数学性证明,能力有限暂不解释,可以自己去原文看)。

        •提出了控制异步引起的错误的策略。为此,引入了一种混合超参数,它根据过时性自适应地控制收敛速度和方差减少之间的权衡。

        •实验表明,所提出的算法收敛迅速,在实际环境中往往优于同步联邦优化。

系统模型 :

    解决目标问题:全局Loss最小化min_{x \subseteq R^d} F(x),进行T轮训练,在第t轮,server接受到worker的最新本地模型x_{new},并以此采取加权平均更新全局模型,x_t = (1-\alpha )x_{t-1} + \alpha x_{new}\alpha \in (0,1)

    PS:直观地说,在更新全局模型时,更大的过时性会导致更大的错误。对于具有大滞后性(t-\tau )的局部模型,可以减小\alpha以减轻滞后性引起的误差。

0:调度器通过协调器触发训练。

1,2:工作人员通过协调器从服务器接收模型x_{t-\tau }

3:worker将本地更新计算为算法1。工作人员可以在两种状态之间切换:工作状态和空闲状态。

4,5,6:worker通过协调器将本地更新的模型推送到服务器。Coordinator将在5中接收到的模型排队,并在6中按顺序将它们提供给更新程序。

7,8:服务器更新全局模型,并使其准备好在协调器中读取。

PS:系统中,1和5并行异步操作。

算法:

在服务器端,调度程序和更新程序并行异步运行。调度器周期性地触发训练任务,并控制过时性(更新线程中的t−τ)。

更新器接收来自工作者的模型并更新全局模型。允许在全局模型上具有读写锁的多个更新线程,这提高了吞吐量。 

其中\alphas(\cdot )决定,不同情况可采用不一样的函数,论文5.2节有详细介绍

代码: GitHub - Hcheng-ya/async_fl: Source code for the paper "Asynchronous Federated Optimization"

  • 41
    点赞
  • 45
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值