精读笔记 - Attack of the Tails: Yes, You Really Can Backdoor Federated Learning

该博客深入解析了Attack of the Tails研究,介绍了一种新的边缘情况(edge-case)后门攻击方法,通过在联邦学习环境中利用低概率分布的样本构造毒样本,提高后门注入的鲁棒性。实验分析了攻击者控制的恶意客户端在不同数据集、参与频率和模型容量下的影响,展示了后门攻击的潜在威胁和防御挑战。
摘要由CSDN通过智能技术生成

精读笔记 - Attack of the Tails: Yes, You Really Can Backdoor Federated Learning

1. 基本信息

论文标题 Attack of the Tails: Yes, You Really Can Backdoor Federated Learning
论文作者 Hongyi Wang, Kartik Sreenivasan, Shashank Rajput, Harit Vishwakarmaw Saurabh Agarwal, Jy-yong Sohn, Kangwook Lee, Dimitris Papailiopoulos
科研机构 University of Wisconsin-Madison, Korea Advanced Institute of Science and Technology
录用会议 NeurIPS 2020
摘要概括 此项工作围绕着联邦学习后门鲁棒性问题提出 edge-case backdoor。所谓 edge-case 作为恶意客户端的毒样本出现在联邦学习系统中所有客户端训练集中是小概率事件。恶意客户端结合该毒样本与良性样本,使用 PGD 算法更新迭代本地模型参数得到恶意模型更新并上传给服务器,从而实现全局模型后门
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在“尾数攻击:是的,你真的可以后门联合学习”这个问题中,尾数攻击是指通过篡改联合学习模型中的尾部数据,来影响模型的训练结果以达到攻击的目的。 联合学习是一种保护用户隐私的分布式学习方法,它允许设备在不共享原始数据的情况下进行模型训练。然而,尾数攻击利用了这种机制的漏洞,通过对局部模型的微小篡改来迫使全局模型在联合学习过程中产生误差。 在尾数攻击中,攻击者可以修改尾部数据的标签、特征或权重,以改变训练模型。这可能导致全局模型在聚合本地模型时出现错误,从而得到错误的预测结果。攻击者可以利用这种攻击方式来干扰或扭曲联合学习任务的结果。 为了解决尾数攻击,可以采取以下措施: 1. 发现和识别攻击:通过监控和分析联合学习模型的训练过程,可以检测到异常的模型行为。例如,检查模型的准确性变化、每个本地模型的贡献以及全局模型与本地模型之间的差异。 2. 降低攻击影响:可以采用如去噪、增加数据量、增强模型鲁棒性等方法来减轻尾数攻击的影响。 3. 鉴别合法参与者:在联合学习任务中应对参与者进行身份认证和授权,并且限制恶意攻击者的参与。这样可以减少尾数攻击的潜在风险。 4. 加强安全机制:引入加密技术和鲁棒算法来保护联合学习过程中的数据和模型,防止未经授权的篡改。 综上所述,尾数攻击是一种可能出现在联合学习中的安全威胁。为了保护联合学习任务的安全性和可靠性,需要采取有效的措施来识别、减轻和预防尾数攻击。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值