学习笔记 | Inverting Gradients--How easy is it to break privacy in federated learning

摘要

Federated Learning:leaves the training data distributed on the mobile devices, and learns a shared model by aggregating locally-computed updates.

关键词:共享模型 整合本地运算的更新

Method:based on iterative model averaging

Principal constraint:communication costs.

主要内容

  1. 由松散的客户端联合解决的,这些设备由一个中央服务器协调。 每个客户端都有一个本地培训数据集,它从未上传到服务器。 每个客户端计算对服务器维护的当前全局模型的更新,并且只传达此更新。数据应用后是不保存的。(移动设备分散的数据训练,模型训练不需要直接访问数据)

  2. Federated Averaging algorithm

  3. 优化方向(论文涉及下面第1,2,4点)

    • Non-IID:非独立同分布,即每个设备的数据不能代表整体的分布;

    • Unbalance:各用户使用频率不相同,单个期望与总体期望不同;

    • Massively distributed:预计参与优化的客户数量大于每个客户的平均示例数量;

    • Limited communication:设备有时离线或缓慢或连接成本昂贵;

  4. 通信成本占主导。因此加速方法为在每个客户端上添加了更多的计算。

  5. 计算量由3个关键参数控制:

    • C:每一轮进行计算的客户端的比例;

    • E:每个客户端每一轮通过其本地数据集的训练次数;

    • B:用于更新的本地数据集的大小。

  6. 实验结果:

    • 通过改变E和B来增加u是有效的,只要B足够大,可以充分利用客户端硬件上可用的并行性;

    • IID样本得到的优化更多,non-IID较小,但仍然很可观。

    • 正则化效益

    • 当前模型参数仅通过初始化影响在每个客户端更新中执行的优化。 因此,作为E→∞,至少对于凸问题,初始条件应该是不相关的,并且无论初始化如何,都将达到全局最小值。非凸问题预计也能收敛到局部最小值。

名词解析

  1. feed-forward deep networks:前馈神经网络(FFDN)?

  2. LSTM:循环神经网络?

  3. non-convex neural network:非凸神经网络?

  4. SGD:随机梯度下降

  5. wall-clock time:挂钟时间

问题

  1. 文章中convexity凸度指的是什么?凸度为什么非凸目标在参数空间中的平均模型可能产生坏的模型? 凹函数极值。

  2. 前馈神经网络、循环神经网络、非凸神经网络需要进一步了解吗? 需要时查看。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值