论文笔记:联邦学习——Federated Learning: Strategies for Improving Communication Efficiency

本文提出两种策略(structured updates和sketched updates)以减少联邦学习中的通信成本,实验表明这些方法能在保持模型精度的同时,显著降低通信开销。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Federated Learning: Strategies for Improving Communication Efficiency

论文链接: link

论文结构

Abstract
1. Introduction
2. Structured Update
3. Sketched Update
4. Experiments

一、摘要核心

背景介绍:
介绍联邦学习的思想、算法,说明通信效率的重要性。

文章亮点:
提出两种降低上行通信成本的方法: structured updates 和 sketched updates
① structured updates:直接从一个有限的空间学习更新,可以使用更少的变量参数化。
②sketched updates :学习一个完整的模型更新,压缩后发给服务器。

优势:
在卷积网络和递归网络上的实验表明,该方法可以将通信成本降低两个数量级。

二、 Introduction

  1. 现有机器学习算法环境需要数据平衡和独立同分布i.i.d.的,和可用的高通量的网络;
    而联邦学习的限制是客户数量众多,高度不平衡和non-i.i.d.的数据,以及相对较差的网络连接。
  2. 联邦学习的同步算法,其中典型的一轮学习包括以下步骤:
    (1)客户端的子集都下载现有的模型
    (2)每个子集的客户基于本地数据计算模型更新
    (3)将模型更新发送到服务器
    (4)服务器聚合模型更新,构建一个改进的全局模型
  3. 说明降低通信成本的重要性
    (1)联邦学习的瓶颈:需要客户端向服务器发送一个完整的模型
    (2)因素:
    网络连接速度的不对称性;
    现有的模型压缩方案可以减少下载当前模型所需的带宽并建立加密协议,进一步增加需要上传的比特量。
  4. 描述问题
    ① 假设所有的参数都在一个矩阵W中, W ∈ R d 1 × d 2 W\in\mathbb{R}^{d1×d2} WRd1×d2
    ② 第t轮时,服务器将当前模型 W t W_t Wt分配到 s t s_t st客户端的一个子集 s t s_t st中,客户端基于本地数据独立更新模型。
    ③ client i 的更新为 H t i H{_t^i} Hti= W t i W{_t^i} Wti- W t {W_t} Wt
    ④ 客户端将更新传给服务器,服务器进行全局更新。 学习率设为1
    在这里插入图片描述
  5. 论文在描述神经网络时,使用二维矩阵 W表示每一层的参数。而卷积核的结构是四维的张量#input × width × height × #output,用二维矩阵 来表达是(# input × width × height)× #output。

三、Structured Update

直接训练结构的更新

限制更新 H t i H{_t^i} Hti有是指定的结构,文中考虑两种结构:low rank and random mask.

low rank

强制使更新矩阵 H t i H{_t^i} Hti的秩不超过k,

将更新矩阵写成乘积的形式 H t i H{_t^i} Hti

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值