联邦学习论文阅读:Federated Distillation and Augmentation under Non-IID Private Data
Communication-Efficient On-Device Machine Learning: Federated Distillation and Augmentation under Non-IID Private Data论文链接(源码没有公开)1 论文概述1.1 Abstract终端设备机器学习可以使用大量终端上的数据进行机器学习模型的训练。在这个过程中存在两个问题:1. 设备之间的通信压力问题(模型越大,需要传送的数据量就越大,会有效率问题,安全问题等);2. 不同设备产生的数据
原创
2021-09-28 22:36:18 ·
1153 阅读 ·
0 评论