How to Backdoor Federated Learning

一 联邦学习

      分布式深度神经网络,通过n个参与者对本地数据进行训练然后把本地和全局模型的差异聚合到全局模型,私有数据从未离开参与者的机器,所有能够保护参与者的隐私

在这里插入图片描述

      上面公式n可以是很大的一个数,在t回合选择m个参与者并向他们发送全局模型Gt到他们的本地,在根据本地数据训练成Lt+1,本地把两者的差距发送到服务中心,上面的差距可以应用一个随机数来缩放,这个主要是中心来优化并生成新的模型Gt+1,如果η = n/m,模型将会完整地被当地所有模板的平均值所替代,因为当地模板和全局模板的差距前面的系数变成1/m。有些任务需要更低的η去聚合,当n等于10的8次方的时候又需要更大的η,这样子才能产生当地对全局模型的影响。
下面这个是本地生成模型的算法
在这里插入图片描述

      初始化两个值,第一个全局模型,第二个是本地数据集D在模型L的损失函数,并且用梯度下降的方法去优化当地模型,最后返回训练完的模型。

二 后门攻击综述

(1)威胁模型

攻击者:控制一个或者多个参与者

  • 控制妥协参与者的本地训练数据

  • 控制当地训练程序或者参数

  • 在模型提交前修改模型的权重

  • 改变训练的次数
    注意,攻击者不控制聚合算法,也不控制良性参与者的训练。和传统的毒性攻击的区别,毒性攻击控制训练数据的重要部分,相比联邦学习的攻击只是控制一个或者少数参与者的整个训练过程。

(2) 攻击的目标

传统毒性攻击在于在大部分输入空间改变模型的表现

  • 全局模型在主任务和后门任务都要保持高的准确率
  • 攻击者提交的更新不应该在其他参与者那里提示异常并当作异常
  • 全局模型在攻击之后多轮都保存搞得后门准确率

ÿ

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值