![](https://img-blog.csdnimg.cn/ecec1463130c4f9b8ccfbc26d13d796a.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
联邦学习
文章平均质量分 85
联邦学习专栏
梦码城
以梦为码,不负韶华
展开
-
数据压缩STC稀疏三元压缩算法复现
数据压缩STC稀疏三元压缩算法复现原创 2022-07-28 11:03:47 · 814 阅读 · 4 评论 -
联邦学习FedAvg算法复现任务
联邦学习FedAvg算法复现任务原创 2022-07-28 11:01:25 · 2520 阅读 · 1 评论 -
FedAvg算法+LSTM模型+ Shakespeare数据集——字符预测任务
FedAvg算法+LSTM模型+ Shakespeare数据集——字符预测任务原创 2022-07-28 10:58:09 · 4133 阅读 · 8 评论 -
《Robust and Communication-Efficient Federated Learning From Non-i.i.d. Data》论文阅读
联合学习允许多方在其组合数据上联合训练深度学习模型,而无需任何参与者将其本地数据透露给中央服务器。然而,这种形式的隐私保护协作学习是以培训期间的大量通信开销为代价的。为了解决这个问题,分布式训练文献中提出了几种压缩方法,可以将所需的通信量减少多达三个数量级。然而,这些现有方法在联合学习环境中的效用有限,因为它们要么只压缩从客户端到服务器的上游通信(不压缩下游通信),要么只在理想条件下运行良好,例如客户端数据的i.i.d.分布,这通常在联合学习中找不到。...原创 2022-07-28 10:27:14 · 1605 阅读 · 0 评论 -
Communication-Efficient Learning of Deep Networks from Decentralized Data
现代移动设备可以访问大量适合学习模型的数据,这反过来又可以极大地改善设备上的用户体验。例如,语言模型可以改进语音识别和文本输入,图像模型可以自动选择好的照片。然而,这些丰富的数据通常对隐私敏感,数量大,或者两者兼而有之,这可能会妨碍使用传统方法登录到数据中心并在那里进行培训。我们提倡另一种方法,将训练数据分布在移动设备上,并通过聚合本地计算的更新来学习共享模型,我们将这种分散的方法称为联合学习。我们提出了一种基于迭代模型平均的深度网络联合学习的实用方法,并结合五种不同的模型结构和四个数据集进行了广泛的实证评原创 2022-06-14 00:03:21 · 3833 阅读 · 0 评论 -
基于cifar10数据集的FedAvg联邦学习任务
根据论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》实现FedAvg联邦学习算法。联邦学习入门推荐原创 2022-06-02 17:58:16 · 2748 阅读 · 1 评论