Federated Meta-Learning with Fast Convergence and Efficient Communication论文阅读笔记
摘要
在移动设备上分布式训练机器学习模型所面对的统计和系统上的挑战是联邦学习现实应用中的瓶颈。本文通过实验说明meta-learning是解决这些问题的自然选择,并且提出了一个联邦元学习的框架FedMeta。和联邦学习相比,联邦元学习只共享meta-learner,而不是一整个模型。作者在LEAF数据集和一个真实的生产数据集上进行了实验。实验结果表明FedMeta更快收敛、需要的通信开销更少,并且相比于FedAvg能取得更高的准确率。同时,FedMeta只共享meta-learner,从而保护了隐私。
原创
2021-03-03 16:18:20 ·
1105 阅读 ·
0 评论