论文名称 | FLTrust Byzantine-robust Federated Learning via Trust Bootstrapping |
---|---|
作者 | Xiaoyu Cao, Minghong Fang, Jia Liu, Neil Zhenqiang Gong |
来源 | NDSS 2021 |
领域 | Machine Learning - Federal learning - Security - Targeted & unTarget poisoning attack |
问题 | 现有的Byzantin-Robust联邦学习方法的核心思想是服务器对客户端更新进行统计分析,去除可疑的更新后聚合。但是,恶意客户端仍然可以通过向服务器发送精心编制的本地更新来破坏全局模型,其根本原因从服务器的角度来看,每个客户端都可能是恶意的 |
方法 | 服务器为学习任务收集一个干净的小型训练数据集并维护一个基于该数据的模型来引导信任。服务提供者首先为每个客户端更新分配信任分数,如果更新的方向偏离服务器模型更新的方向,则该更新的信任分数降低。 然后,服务器规范化客户端更新的幅度,使得它们在向量空间与服务器模型更新位于相同的超球面中 |
阅读记录
总结
从服务器的角度来看,每个客户端都有可能是恶意的,无法为服务器提供信任根,因此需要由服务器自身引导信任。