文章目录
精读笔记 - How to backdoor Federated Learning
1. 基本信息
论文标题 | How to backdoor Federated Learning |
---|---|
论文作者 | Eugene Bagdasaryan, Andreas Veit, Yiqing Hua, Deborah Estrin, Vitaly Shmatikov |
科研机构 | Cornell University |
会议年份 | AISTATS 2020 |
开源代码 | https://github.com/ebagdasa/backdoor_federated_learning |
摘要概括 | 在这项工作中,作者发现联邦学习相比于在本地数据集投毒,其更加容易被模型投毒攻击。即一个恶意用户能够使用模型篡改的方式植入后门到联邦学习系统中。(如:修改图像分类器目的是能够让拥有特定特征的图像错误地分类为攻击者选择的目标类,或者打字补全能够错误地补全成攻击者选择的词)这些攻击可以是单个恶意用户进行攻击,也可以是多个恶意用户联合一起攻击。作者通过实验得出两个结论:采用模型替 |