FedBN总结

《FEDBN: FEDERATED LEARNING ON NON-IID FEATURES VIA LOCAL BATCH NORMALIZATION》ICLR 2021。文章通过在局部模型中加入批量归一化层(BN)解决联邦学习数据异构性中feature shift这种情况(之前很多文章都是研究label shift或client shift),文章将这种方法名为FedBN。

什么是feature shift

y为标签,x为特征,文章将feature shift定义为以下情况:
1)covariate shift:即使所有客户的 P i P_i Pi(y|x)是相同的,不同客户之间的边缘分布 P i P_i Pi(x)是不同的;
2)concept shift:不同客户的条件分布 P i P_i Pi(x|y)不同,但P(y)相同。
例如:医学成像中不同的扫描仪/传感器,自动驾驶中不同的环境分布(公路和城市),使得本地客户端的样本分布不同于其他客户端。

FedBN ALGORITHM

与FedAvg类似,FedBN也进行局部更新和模型聚合,不同的是,FedBN假设局部模型有批量归一化层(BN),且BN的参数不参与聚合。
在这里插入图片描述

收敛性分析

一片华丽的数学推导也太秀了,暂时没能看懂…
反正结论是在feature shift场景下,FedBN的收敛比FedAvg更快更光滑

实验

文章分benchmark和real-world datasets两种数据进行实验

1、benchmark experiment

1.1 实验设置

数据集:五个来自不同域且带有feature shift性质的数据集(不同域的数据具有异构的性质,但具有相同的标签和标签分布)。具体包括SVHN, USPS, MNIST-M, MNIST, SynthDigits。文章还对这五个数据集进行了些预处理,主要是控制无关因素,例如客户之间样本数量不平衡问题,使BN的作用在实验中更加易于观察。
模型:在卷积层和全连接层后面加入BN层。
在这里插入图片描述
客户端:默认设置下,有五个客户端,每个客户端的数据来自对不同的数据集的采样,且只有对应数据集的数据量的10%。
其他参数略详见论文。

1.2 收敛速度分析

具体设置:
在这里插入图片描述
与收敛性分析的结论相同,聚合模型在每个数据集(也就是每个客户端)上的收敛曲线显示,FedBN的收敛比FedAvg更快更光滑。
在这里插入图片描述

1.3 局部模型训练迭代次数分析

具体设置:
在这里插入图片描述
不同迭代次数(E)下,FedBN和FedAvg测试集上的准确率曲线显示,在各种E上,FedBN的准确率稳定地超过FedAvg。
在这里插入图片描述

1.4 本地数据集的大小分析

具体设置:
在这里插入图片描述
结果表明,每个客户端持有的Non-IID数据越少,FedBN的优越性越明显。
在这里插入图片描述

1.5 统计异质性的影响

具体设置:
在这里插入图片描述
更多的客户端对应更小的异构性。在所有异质性水平上,FedBN都比FedAvg实现了更高的测试精度。
在这里插入图片描述

1.6 Comparison with State-of-the-art

具体设置:
在这里插入图片描述
(1) FedBN实现了最高的精度;
(2) FedBN对SVHN数据集的性能最为显著,SVHN的图像外观与其他图像有很大的不同。
在这里插入图片描述

2、EXPERIMENTS ON REAL-WORLD DATASETS

在这里插入图片描述

总结与展望

其实这篇文章的中心很简单,就是在本地模型中加入BN层,然后应用于feature shift这种异构性场景并获得了不错的性能。有望与其他方法和框架,例如客户端选择策略,聚合策略等等相结合。并且BN本身也有优化版本可以尝试应用于此。

  • 6
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

联邦学习小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值