联邦学习代码调试

联邦学习代码解读

前面一篇文章对联邦学习的代码进行了详细的解读,这篇文章主要是通过调试,更深入地了解一下联邦学习代码是如何运行的,促进后续我们对于其他和联邦学习的相关文章的阅读,以及在本代码基础之上进行修改。
首先回顾一下伪代码:
在这里插入图片描述

在这里插入图片描述
这些都不用再说明了,就是一些基本设置。那args已经在options.py进行设置了。运行这几段代码之后,会展示出一些联邦学习设置的重要细节(如下图所示),这些细节都可以通过命令行参数来改变。
在这里插入图片描述
实验的重要细节:
模型:‘mlp’
优化器:‘sgd’
学习率:0.01
全局回合数:10

联邦学习参数:
数据集采集:IID(独立同分布)
用户选取比例C:0.1
本地批量大小B:10
本地回合数E:10

获取数据集

在这里插入图片描述
这行代码主要是为了获取训练集和测试机、用户组。
我们获取的训练集如下图所示:
在这里插入图片描述
我们获取的测试数据集如图所示:
在这里插入图片描述
获取的用户组如图所示,是随机从训练集中选取的IID或者non-IID的数据,图中的每个用户组数据是图片的索引值。
在这里插入图片描述

开始训练

我们训练的模型是’mlp’所以直接进入这个条件判断后的语句
在这里插入图片描述
运行到最后一步的时候len_in=784,为什么要像这样进行MLP模型的训练我暂时还不明白,或许后面还得仔细看看论文的实验设置。
在这里插入图片描述
原论文说明了多层感知器是有两个隐藏层以及200个单元的,每个单元都是用ReLu激活函数,我们将其视为MNIST 2NN。但是代码中设置的隐藏层是有64层的???另外输入为什么需要设置一个循环进行不同的设置,是因为单纯要计算最后的len_in吗???

初始化参数:

在这里插入图片描述在这里插入图片描述
上述代码设置模型进行训练,并将模型发给设备(cpu),打印出模型的信息。

global_model.train()这行代码作用是什么?为什么这里就开始训练了?下面一张图的模型的每层的参数是如何得到的???

答:model.train()怎么用?在使用 pytorch 构建神经网络的时候,训练过程中会在程序上方添加一句model.train(),作用是 启用 batch normalizationdropout

如果模型中有BN层(Batch Normalization)和 Dropout ,需要在 训练时 添加 model.train()

model.train() 是保证 BN 层能够用到 每一批数据 的均值和方差。对于 Dropout,model.train() 是 随机取一部分 网络连接来训练更新参数。

在这里插入图片描述

本地更新

在这里插入图片描述

全局更新

  1. 进行全局的参数更新,取本地更新权重的平均值
  2. 训练损失值也进行更新
    在这里插入图片描述
  3. 计算所有用户在每个全局回合当中的训练精度,根据这个回合算出的平均参数。
    在这里插入图片描述
  4. 每个全局回合结束后,将打印输出这轮的训练损失值和训练精度
    在这里插入图片描述
    根据这样的步骤,循环执行,直至所有的全局回合结束。

测试精度和损失值

在这里插入图片描述
打印输出测试结果
在这里插入图片描述
测试结果如下:
在这里插入图片描述

  • 6
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
联邦学习(Federated Learning)是一种新兴的机器学习方法,它将数据存储在本地设备上,通过联合学习算法在本地设备上进行模型训练,然后将权重平均值发送到服务器进行汇总,从而实现模型的更新。联邦学习算法可以在不泄露数据的情况下对模型进行训练,可以保护用户的隐私,同时也可以减少数据传输的成本。 下面是一个简单的联邦学习代码实现,其中假设有多个本地设备(clients)和一个服务器(server): 1. 客户端代码: ```python import torch import torch.nn as nn import torch.optim as optim class Client(object): def __init__(self, data, target): self.model = nn.Linear(2, 1) self.data = data self.target = target def train(self): criterion = nn.MSELoss() optimizer = optim.SGD(self.model.parameters(), lr=0.01) for epoch in range(10): optimizer.zero_grad() output = self.model(self.data) loss = criterion(output, self.target) loss.backward() optimizer.step() return self.model.state_dict() ``` 2. 服务器端代码: ```python import torch class Server(object): def __init__(self, clients): self.clients = clients def train(self): models = [] for client in self.clients: model = client.train() models.append(model) avg_model = self._average_models(models) return avg_model def _average_models(self, models): avg_model = {} for key in models[0].keys(): avg_model[key] = torch.stack([model[key] for model in models]).mean(0) return avg_model ``` 3. 主函数代码: ```python import torch from client import Client from server import Server def main(): # generate data data = torch.randn(10, 2) target = torch.randn(10, 1) # create clients clients = [] for i in range(3): client_data = data[i*3:(i+1)*3] client_target = target[i*3:(i+1)*3] client = Client(client_data, client_target) clients.append(client) # create server server = Server(clients) # train model avg_model = server.train() print(avg_model) if __name__ == '__main__': main() ``` 上述代码中,客户端随机生成了一个2维的数据和目标值,并使用一个简单的线性模型进行训练。服务器通过调用每个客户端的train方法,获取每个客户端的模型权重,并对这些权重进行平均,最终返回平均模型权重。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值