论文名称 | Neurotoxin: Durable Backdoors in Federated Learning |
---|---|
作者 | Zhengming Zhang, Ashwinee Panda, Linyue Song, Yaoqing Yang, Michael Mahoney, Prateek Mittal, Ramchandran Kannan, Joseph Gonzalez |
来源 | ICML 2022 |
领域 | Machine Learning - Federal learning - Security – poisoning attack |
问题 | 攻击者可以向FL插入后门,但是这些后门不持久,一旦停止上传中毒攻击,后门就无法停留在全局模型中 |
方法 | 在Neurotoxin中,为了避免与良性客户端的更新方向发生重叠,恶意客户端将恶意梯度投影到良性客户端未使用的子空间上,增加了攻击的稳定性 |
阅读记录
总结
相比于PGD, Neurotoxin将中毒更新投影到良性更新不常使用的参数空间上,使得后门攻击的持久性更强。