pytorch loss不下降_勘误&更新 | 用pytorch进行联邦学习

4bdef23c48ef961b60179275da1de840.png

  点击上方蓝字关注"Federated Learning"  

全网最专业的联邦学习资讯平台

b2465ead521bc8a5c16633d7de197c4e.gif

感谢

上篇《用pytorch完成任意模型的联邦学习》的文章中,收到了一些读者的宝贵意见。之前的文章中,关于纵向联邦的表达是有不准确的,本文主要是针对上述文章的勘误和更新。非常感谢各位的意见和指正。

01

原理介绍

本文将模拟多个客户端之间进行联邦训练的场景。多个客户端都拥有自己的数据集,同时存在一个服务端来对整个训练过程进行调控。在确定训练模型后,客户端首先从服务端获得模型初始化参数,然后利用本地数据执行本地训练。本地训练完成后,将模型参数发送到服务端,服务端收集所有客户端的模型参数后,执行联邦优化,并将优化结果再返回给客户端。重复上述步骤,直至模型收敛。

02

模型传输技巧

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值