Federated Unlearning with Knowledge Distillation
本篇论文的贡献(目的)
本文将联邦遗忘学习问题定义为在联合训练过程之后从全局模型中彻底有效地移除指定客户的贡献。主要想法是从攻击者那里擦除历史参数更新并通过知识蒸馏方法恢复损坏。通过检验后门攻击成功率的方式评估遗忘性能。
创新性
遗忘过程不需要来自客户端的任何训练数据信息,并且大部分计算均由服务器完成,减少了与客户端之间的网络传输。
联邦遗忘学习算法步骤
1.问题描述:
本文将遗忘后的全局模型 M F ′ M^{'}_{F} MF′表示为遗忘前的全局模型 M F M_{F} M