联邦学习里面的安全问题 中毒攻击 中毒攻击主要是指在训练或者再训练过程中,恶意的参与者通过攻击训练数据集来操控机器学习模型的预测预防措施 源信息检测参数检测鲁棒低矩阵逼近和鲁棒主成分回归 对抗攻击 对抗攻击(对抗样本攻击 ): 对抗攻击是指恶意的构造输入样本,导致模型以高置信度输出错误结果预防措施 对抗训练数据增强数据处理数据压缩梯度正则化对抗样本检测基于GAN的预防 模型提取攻击 模型提取攻击 :攻击者试图窃取模型的参数和超参数,破坏模型的保密性模型逆向攻击 : 攻击者试图从训练完成的模型中获取训练数据集的信息,从而获取用户的隐私信息预防措施 差分隐私秘密分享机制同态加密混合预防机制