PySyft改造官方例子:实现自己想要的手动聚合


本人博客https://qinzheng7575.github.io/

自己聚合例子

为了能够实现想要的各种FL架构,我们必须学会怎么改造官方例子,使之能够自己聚合、训练,在自己聚合方面,有这样一个例子:

import torch
import copy
import syft as sy
from torch import nn
from torch import optim
hook = sy.TorchHook(torch)


# 工作机作为客户端,用于训练模型,安全工作机作为服务器,用于数据的整合及交流
Li = sy.VirtualWorker(hook, id='Li')
Zhang = sy.VirtualWorker(hook, id='Zhang')
secure_worker = sy.VirtualWorker(hook, id='secure_worker')
data = torch.tensor([[0, 1], [0, 1], [1, 0], [1, 1.]], requires_grad=True)
target = torch.tensor([[0], [0], [1], [1.]], requires_grad=True)

data_Li = data[0:2]
target_Li = target[0:2]
data_Zhang = data[2:]
target_Zhang = target[2:]
Li_data = data_Li.send(Li)
Zhang_data = data_Zhang.send(Zhang)
Li_target = target_Li.send(Li)
Zhang_target = target_Zhang.send(Zhang)


model = nn.Linear(2, 1)


# 定义迭代次数
iterations = 20
worker_iters = 5

for a_iter in range(iterations):
    Li_model = model.copy().send(Li)
    Zhang_model = model.copy().send(Zhang)
    # 定义优化器
    Li_opt = optim.SGD(params=Li_model.parameters(), lr=0.1)
    Zhang_opt = optim.SGD(params=Zhang_model.parameters(), lr=0.1)
    # 并行训练
    for wi in range(worker_iters):
        # 训练Li的模型
        Li_opt.zero_grad()
        Li_pred = Li_model(Li_data)
        Li_loss = ((Li_pred - Li_target) ** 2).sum()
        Li_loss.backward()
        Li_opt.step()
        Li_loss = Li_loss.get().data
        # 训练Zhang的模型
        Zhang_opt.zero_grad()
        Zhang_pred = Zhang_model(Zhang_data)
        Zhang_loss = ((Zhang_pred - Zhang_target) ** 2).sum()
        Zhang_loss.backward()
        Zhang_opt.step()
        Zhang_loss = Zhang_loss.get().data
    # 将更新的模型发送至安全工作机
    Zhang_model.move(secure_worker)
    Li_model.move(secure_worker)
    # 模型平均
    with torch.no_grad():
        model.weight.set_(#此时Zhang和Li的model已经在安全工作机上了
            ((Zhang_model.weight.data + Li_model.weight.data) / 2).get())
        model.bias.set_(
            ((Zhang_model.bias.data + Li_model.bias.data) / 2).get())
    # 打印当前结果
    print("Li:" + str(Li_loss) + "Zhang:" + str(Zhang_loss))

# 模型评估
preds = model(data)
loss = ((preds - target) ** 2).sum()
print(preds)
print(target)
print(loss.data)

其中关键的是,它用三个VirtualWorker来模拟了架构,利用.move()改变了模型的位置,然后再手动聚合。而我们要想用相同的思路对官方的例子进行改进,就必须了解pysyft的一些函数概念.federate() .send() .get()等等。

PySyft再探究

federated_train_loader = sy.FederatedDataLoader(
    datasets.MNIST('/minist_data', train=True, download=True,
                   transform=transforms.Compose([
                       transforms.ToTensor(),
                       transforms.Normalize((0.1307,), (0.3081,))
                   ]))
    .federate((qin, zheng)),
    batch_size=args['batch_size'], shuffle=True
)

torchversion相关函数

torchvision是pytorch的一个图形库,它服务于PyTorch深度学习框架的,主要用来构建计算机视觉模型。torchvision.transforms主要是用于常见的一些图形变换。以下是torchvision的构成:

  • torchvision.datasets: 一些加载数据的函数及常用的数据集接口;
  • torchvision.models: 包含常用的模型结构(含预训练模型),例如AlexNet、VGG、ResNet等;
  • torchvision.transforms: 常用的图片变换,例如裁剪、旋转等;
  • torchvision.utils: 其他的一些有用的方法。

torchvision.transforms.Compose()类:这个类的主要作用是串联多个图片变换的操作,也就是把里面的所有操作包起来一起执行。上述代码的剩下两行 也不难看出,分别是把图片转化为tensor和归一化的

dataset.MINIST()

看了一篇这个,感觉dataset.MINIST()最后返回的一个数据集列表

writer = SummaryWriter('LOGS/008log')
for i in range(10):
    img, target = test_data[i]
    writer.add_image('test_set', img, i)
writer.close()

他这样test_data[i]就直接代表的一个转化成tensor的图片。我们接下来的分析基本上都以这个思路继续。

.federate()做了什么

我们接着探究,为了搞清楚上面代码到底做了什么,一下测试代码:

for batch_idx, (data, target) in enumerate(federated_train_loader):
    if batch_idx < 5:
        print(batch_idx, type(data), data.location)
    else:
        break
        
0 <class 'torch.Tensor'> <VirtualWorker id:qin #objects:4>
1 <class 'torch.Tensor'> <VirtualWorker id:qin #objects:4>
2 <class 'torch.Tensor'> <VirtualWorker id:qin #objects:4>
3 <class 'torch.Tensor'> <VirtualWorker id:qin #objects:4>
4 <class 'torch.Tensor'> <VirtualWorker id:qin #objects:4>

哦,原来.federate()并没有改变什么,数据类型仍然是上面转换过的tensor,但是其只是分别分发到了两个虚拟打工人qin和zheng上!下面的代码

print('qin\'object: {}'.format(qin._objects))
print('zheng\'object: {}'.format(zheng._objects))

表示,二人手上都有了数据,也就是说federate()函数已经实现了分发(省去了我们一个一个send()的麻烦)!又因为实际上我们能够通过指针进行操作,那么对于federated_train_loader来说,数据在哪里并不担心,只需要和以前没有FL一样操作就可以了,其实这也是pysyft想达到的,尽可能简化操作。

现在看看我们手上有的东西federated_train_loader加载好了训练数据可供我们调用,只不过我们是通过下发指令到远程的方式,而test_loader提供了测试数据给我们(在本地),最后可以用它来测试。并且既然qin 和zheng都有了数据,那么就说明我们可以直接对其进行操作,不一定非要用model.get()一次性全部拉过来!(但是这只是数据,而不是模型)

一个小点model.train()和.eval():

model.train():
在使用pytorch构建神经网络的时候,训练过程中会在程序上方添加一句model.train(),作用是启用batch normalization和drop out。

model.eval():
测试过程中会使用model.eval(),这时神经网络会沿用batch normalization的值,并不使用drop out。

不管怎么说,一个例子

接下来要干的事: print(data.shape, target.shape)

手动分发数据,手动实现训练!

改造官方成功!!!

改造官方例子!

虽然官方例子给了一个可使用的例子,并且直接用model.get() .send()啊,将数据直接.federate()分发啊啥的也比较出色,能够尽可能的不改变使用方式的情况下应用联邦学习。但是,就如同毕设所说的那样,官方例子没有考虑到我们自定义训练架构的情况。

model.get() .send().federate()等,都是一次直接分发下去了,然后用这一个指针直接对所有的进行操作,可扩展性实在太小,参考自己聚合例子,我们进行改造!目标是实现我们想要的架构(比如设备之间两两聚合模型)进行学习。

数据读取

结合D2L学到的内容,使用Mnist数据,需要先加载,然后分批次两个步骤,在原来的例子中,使用了sy.FederatedDataLoader().federate((qin, zheng))一次完成了数据加载和分发给打工人。我们就用原本pytorchDataLoader改造之:

federated_train = torchvision.datasets.MNIST(
    root='/minist_data',
    train=True,
    download=True,
    transform=transforms.Compose([
        transforms.ToTensor(),
        transforms.Normalize((0.1307,), (0.3081,))]
    )
)

federated_train_loader = DataLoader(
    federated_train,
    batch_size=args['batch_size'],
    shuffle=True
)

在后面的使用的时候,自然要把datatarget分开:

for batch_idx, (data, target) in enumerate(train_loader):  # enumrate用来编序号
        # print('data shape:{}'.format(data.shape))
        data_qin = data[0:32]
        target_qin = target[0:32]

我们print('data shape:{}'.format(data.shape))一下,就能发现通过数据加载,一个data的规格是(64 * 1 * 28 * 28)的,也就是一次加载了batch_size为64的图片,对应target也是64个,我们现在有两个打工人,那么一个人就应该分一半数据,所以才有了上面代码的切片操作,一人拿32。

训练过程

在加载完数据之后,我们还要把数据分发下去,使用CUDA,并且还要把模型也下发,训练过程中的loss也要get到读取。

qin_data = data_qin.send(qin)
qin_target = target_qin.send(qin)
# zheng_data = data[32:]
# zheng_target = target[32:]
# print(qin_data.shape)

# qin_model = model.copy().send(qin)#模型发往远程
# qin_model = model.send(qin)  # 模型发往远程----------
# zheng_model = model.copy().send(zheng)
qin_data, qin_target = qin_data.to(device), qin_target.to(device)

# 训练
# qin_opt.zero_grad()
optimizer.zero_grad()
qin_output = qin_model(qin_data)
qin_loss = F.nll_loss(qin_output, qin_target)
qin_loss.backward()
# qin_opt.step()
optimizer.step()

这个步骤我先用只一个打工人进行模拟,所以没有模型聚合的部分,但是那个并不是主要问题。整体代码基本上就遵循 数据分发->数据放GPU上->优化器初始化->计算模型输出->计算损失->反向传播->优化器正向更新。

遇到的BUG

在改造的时候,遇到一个很严重的问题:损失一直下不来,这似乎很不可思议,连Mnist的损失都下不来,一定是代码改造的有问题。

随后发现了问题,每次训练的循环里面,都重新定义了一次optimizer,就每次刚梯度下降,一个小批次还没训练完,我又给他刷新了hhh。原来错误代码:

知道这个问题之后,我就在外面定义了优化器qinz_opt然后作为参数传进训练函数中:

model = Net().to(device)
print("开始训练!!\n")

qin_model = model.send(qin)  # 模型发往远程
qin_opt = optim.SGD(params=qin_model.parameters(), lr=args['lr'])#优化器在这里!
for epoch in range(1, args['epochs']+1):
    train(args, model, device, federated_train_loader, qin_opt, epoch)

最后呢,也是恭喜成功训练完成

可以看到,loss终于下来了。

未来的计划

  • 远处打工人virtualworker的数量从一个变成两个,也就是进行模型聚合
  • 使用聚合之后的模型在测试集上进行测试
  • 代码重构,使用类和装饰器,让后面实现更复杂的网络架构。
  • 写KM算法(Kuhn-Munkras)求分配的代码。
  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
假设有一组地理坐标点数据,如下所示: | 纬度 | 经度 | | ---- | ---- | | 31.231 | 121.473 | | 31.231 | 121.475 | | 31.233 | 121.477 | | 31.235 | 121.475 | | 31.237 | 121.473 | | 31.239 | 121.471 | | 31.241 | 121.469 | | 31.243 | 121.471 | | 31.245 | 121.473 | | 31.247 | 121.475 | 我们可以使用Cesium实现聚合,将附近的点合并成一个聚合点。具体实现步骤如下: 1. 创建Cesium Viewer对象: ```javascript var viewer = new Cesium.Viewer('cesiumContainer'); ``` 2. 将点数据转换成Cesium的Entity对象,并添加到Viewer中: ```javascript var entities = []; var positions = [ [31.231, 121.473], [31.231, 121.475], [31.233, 121.477], [31.235, 121.475], [31.237, 121.473], [31.239, 121.471], [31.241, 121.469], [31.243, 121.471], [31.245, 121.473], [31.247, 121.475] ]; for (var i = 0; i < positions.length; i++) { var position = Cesium.Cartesian3.fromDegrees(positions[i][1], positions[i][0]); var entity = new Cesium.Entity({ position: position, point: { pixelSize: 10, color: Cesium.Color.RED } }); entities.push(entity); } viewer.entities.add(entities); ``` 3. 使用Cesium的Cluster实现聚合: ```javascript var pixelRange = 50; var minimumClusterSize = 3; var cluster = new Cesium.Cluster({ pixelRange: pixelRange, minimumClusterSize: minimumClusterSize, enabled: true }); viewer.dataSources.add(cluster); cluster.addEntities(entities); ``` 以上代码中,我们使用了Cesium的Cluster对象,设置了聚合点的像素范围和最小聚合点数量。最后将Entity添加到Cluster中即可实现聚合。 完整代码如下: ```javascript var viewer = new Cesium.Viewer('cesiumContainer'); var entities = []; var positions = [ [31.231, 121.473], [31.231, 121.475], [31.233, 121.477], [31.235, 121.475], [31.237, 121.473], [31.239, 121.471], [31.241, 121.469], [31.243, 121.471], [31.245, 121.473], [31.247, 121.475] ]; for (var i = 0; i < positions.length; i++) { var position = Cesium.Cartesian3.fromDegrees(positions[i][1], positions[i][0]); var entity = new Cesium.Entity({ position: position, point: { pixelSize: 10, color: Cesium.Color.RED } }); entities.push(entity); } var pixelRange = 50; var minimumClusterSize = 3; var cluster = new Cesium.Cluster({ pixelRange: pixelRange, minimumClusterSize: minimumClusterSize, enabled: true }); viewer.dataSources.add(cluster); cluster.addEntities(entities); ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值