论文解读-Agglomerative Federated Learning: Empowering Larger Model Training

联邦学习新探:端边云协同引领大模型训练的未来|INFOCOM 2024

联邦学习(Federated Learning)就是一种能够在不损害用户隐私的前提下,训练人工智能模型的技术。
随着云计算、边缘计算和终端设备的发展,端边云协同(End-Edge-Cloud Collaboration)计算范式的出现,为联邦学习算法的实施与部署提供了新的路径。
由中国科学院计算技术研究所、中国科学院大学、中关村实验室和北京交通大学的研究团队共同完成的论文“Agglomerative Federated Learning: Empowering Larger Model Training via End-Edge-Cloud Collaboration”,在INFOCOM 2024上提供了一个全新的视角,引领我们进入了联邦学习和端边云协同的新纪元。
在这里插入图片描述

端边云协同是一种新兴的计算范式,它借助远端云数据处理中心、近端边缘服务器和终端设备的分布式算力,提供了一个高效、灵活和可扩展的计算框架。在端边云协同的架构下,云服务器、边缘服务器和终端设备能够充分发挥其各自的优势。
云服务器有强大的计算能力,适合处理大规模的数据处理和模型训练任务;边缘服务器靠近用户,可以处理时效性强、对延迟敏感的任务;终端设备则可以在保护用户隐私的前提下,利用丰富的用户数据进行本地化的模型训练和优化。
在这种模式下,云服务器、边缘服务器和终端设备可以在不同的计算层级之间进行协作,共同承担计算任务,提高整体的计算效率。在这个背景下,作者探索了如何通过端边云协同来帮助联邦学习处理更大模型的训练任务。
![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/f0b87ed3fa624e15910673585348e2ef.png在这里插入图片描述

本文作者提出了凝聚联邦学习(Agglomerative Federated Learning)框架,该框架通过桥接样本在线蒸馏协议(Bridge Sample Based Online Distillation Protocol),递归地组织树状拓扑的端边云算力网,实现了端边云之间每对父子节点的模型无关(Model Agnostic)的协同训练。具体来说,低层级节点先用一个轻量级编码器对本地数据进行编码,再上传编码到上级节点;上级节点用一个预训练好的解码器对编码生成伪样本。不同层级节点之间的模型在这些伪样本上进行在线蒸馏,逐层向上传递知识。这样,不同层节点可以根据本地算力资源训练大小合适的模型,而云端集成所有知识后可以训练规模显著超过端侧设备承载能力的模型。
在这里插入图片描述

此外,本文作者还证明了该框架在端边云算力网中的灵活性,即每一个非根节点算力节点均可在同一层级随意切换接入的父节点,这为算力网中单点宕机修复、负载均衡等操作提供了空间。实验结果表明,相比现有框架,凝聚联邦学习可以带来模型精度和收敛性的显著提升。
在这里插入图片描述
在这里插入图片描述

论文地址:https://www.techrxiv.org/doi/full/10.36227/techrxiv.24720759.v1
代码链接:https://github.com/wuzhiyuan2000/FedAgg

  • 4
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MCRG

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值