READ-2349 DeepSight: Mitigating Backdoor Attacks in Federated Learning Through Deep Model Inspection

论文名称DeepSight: Mitigating Backdoor Attacks in Federated Learning Through Deep Model Inspection
作者P. Rieger, T. D. Nguyen, Markus Miettinen, A. Sadeghi
来源NDSS 2022
领域Machine Learning - Federal learning - Security – Backdoor attack
问题已有的防御方式:1.旨在检测和删除中毒模型:无法区分在不同数据分布的良性训练数据上训练的模型和中毒模型;2.旨在限制中毒模型的影响:不能有效地对抗具有高攻击影响的中毒模型更新
方法检查神经网络的内部结构和输出, 将基于聚类的过滤方案与裁剪相结合,以识别具有高攻击影响的恶意更新,同时保持来自不同数据分布的良性模型更新

阅读记录

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


总结

针对后门攻击:

  1. 对于每一张图片,神经网络的目的均是使对应标签的预测概率最大化,当使用另一个具有不同标签的样本进行训练时,前一个图像的预测向量也会受到影响。当某个类别的样本经常出现时,模型预测将更偏向于对该标签的预测。因此,当所有客户端都从相同的全局模型出发时,具有相似数据的客户端将试图为其数据样本实现相似的预测,因此他们将以相似的方式调整参数,从而导致相似的模型更新,进而两个客户端模型与全局模型的差距相似。
  2. 训练过程将改变输出层的神经元,经常出现的类对应的神经元将以高梯度进行多次更新,不常出现的类对应的神经元的更新幅度较小,因此输出层参数的变化幅度将泄露标签分布的频率。由于中毒模型的数据异质性明显小于良性模型的训练数据,如果有一个局部模型的训练数据非常同质,则该模型可能中毒了
  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值