自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 上传代码到github

67。

2024-06-12 14:48:30 158

原创 FedAvg算法

带着这个疑问,开始在网上找答案,最终发现《Communication-Efficient Learning of Deep Networks from Decentralized Data》在arXiv上竟然有了新的一版(2023年更新的),话不多说,直接上原文。但这里就有疑问了,不应该是参与训练的客户端才会执行聚合吗?为了节省带宽等,有时候甚至只有参与训练的客户端才会得到最新的全局模型,那么怎么会所有客户端参与聚合呢?,意味着全部客户端都要参与聚合,那么没有被选择的客户端都不进行本地训练,怎么会有。

2023-11-04 21:02:50 382

原创 Beta 信誉机制

Beta信誉机制

2023-10-10 11:28:23 145

原创 联邦学习(Federated Learning)pytorch实现,超全注释

torch.nn.Module模块中的state_dict变量存放训练过程中需要学习的权重和偏置系数 state_dict本质上Python字典对象。在这里引入了三种数据集分配方式,分别是minist_iid,mnist_noniid和cifar_iid。这三个函数最终的输出都是dict_users,也就是一个字典,键值对分别为客户端编号和每个客户端所拥有的数据集标签。这里和集中式训练差不多,自定义包中的具体函数在使用时候再具体讲解。最后是损失绘图和测试,和集中式训练类似。和集中式训练一样,不再赘述。

2023-07-29 14:31:35 1560

原创 联邦学习(Federated Learning)pytorch实现,超全注释

开始两行是自定义包args_parser,目的是为了自动解析命令行,获取参数信息,第三行是为了确定cpu还是gpu进行训练,最后的种子其实可以跳过,有没有都行,主要就是为了通过随机种子使得每次的运行结果都一致。前两行是引入绘图的包,三四五行是引入torch的包,datasets和transformer的作用已在注释中说明。最后两行是引入的自定义包,在用到的时候会解释。接下来就是训练过程了,首先是选择优化器,普遍使用的是SGD,接下来就是训练过程,注释已经给出了每一步的作用,基本训练过程都是固定的。

2023-07-27 12:06:35 3085

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除