READ-2364 Deep Model Poisoning Attack on Federated Learning

论文名称Deep Model Poisoning Attack on Federated Learning
作者Xingchen Zhou, Ming Xu , Yiming Wu, Ning Zheng
来源MDPI 2021
领域Machine Learning - Federal learning - Security – poisoning attack
问题已有的投毒攻击:无法同时达到有效性、隐蔽性、持久性的要求:1、无目标投毒攻击降低了主任务的整体性能,因此更容易被检测到;2.已有防御显式改变了模型的权值分布,因此更容易被防御方检测出来;3.由于联邦学习系统中客户端数量庞大,部分攻击的持久性较差
方法提出了一种基于优化的模型投毒攻击,利用模型容量,向模型冗余空间注入中毒神经元

阅读记录

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


总结

  1. 出发点
    (1)交替最小化:交替训练一小批中毒数据和干净数据,平衡主任务和对抗任务
    (2)正则化项:使得恶意模型的更新量与良性客户的更新量相似
  2. 挑战:计算Hessain矩阵需要耗费大量的时间,但服务器可能会剔除不能按时回复的客户端
  • 9
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Poison frogs! targeted clean-label poisoning attacks on neural networks”这是一个关于对神经网络进行有针对性的干净标签中毒攻击的研究项目。在这种攻击中,研究人员通过修改训练数据集中的特定标签,以欺骗神经网络模型以误分类输入样本。 干净标签中毒攻击是一种隐蔽的攻击方式,因为攻击者不需要修改图像本身或添加任何可见的攻击标记。相反,他们通过对训练数据集进行精心设计的修改,使神经网络在应用中出现错误分类。这种攻击方法可能会导致严重后果,例如在自动驾驶汽车或安全系统中造成事故或功能失效。 这个项目的目的是研究这种攻击方法的可行性和效果,并提出对抗这种攻击的解决方案。研究人员首先对训练数据集进行修改,以使特定类别的图像被误分类为其他类别。然后,他们使用已经训练好的神经网络模型,通过修改训练数据集中的特定图像标签,使模型在测试阶段错误地将这些特定图像分类为不同的类别。 结果表明,即使在高性能的神经网络上进行干净标签中毒攻击也是可行的。这些攻击可以在不影响模型在其他正常输入上性能的情况下,误导模型对特定图像的分类。这使得攻击者能够操纵模型的行为,甚至可能导致系统的安全漏洞和错误决策。 为了对抗这种攻击,研究人员提出了一种改进的训练策略,称为“防御机制”。这种方法可以增强模型对干净标签中毒攻击的鲁棒性,并提供了一种有效的方法来检测和解决这种攻击。 总体而言,这个项目揭示了干净标签中毒攻击在神经网络中的潜在威胁,并提供了对抗这种攻击的解决方案。这有助于进一步加强神经网络模型在面临安全挑战时的鲁棒性,并推动相关领域的研究和技术发展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值