精读笔记 - How to backdoor Federated Learning

精读笔记 - How to backdoor Federated Learning

1. 基本信息

论文标题 How to backdoor Federated Learning
论文作者 Eugene Bagdasaryan, Andreas Veit, Yiqing Hua, Deborah Estrin, Vitaly Shmatikov
科研机构 Cornell University
会议年份 AISTATS 2020
开源代码 https://github.com/ebagdasa/backdoor_federated_learning
摘要概括 在这项工作中,作者发现联邦学习相比于在本地数据集投毒,其更加容易被模型投毒攻击。即一个恶意用户能够使用模型篡改的方式植入后门到联邦学习系统中。(如:修改图像分类器目的是能够让拥有特定特征的图像错误地分类为攻击者选择的目标类,或者打字补全能够错误地补全成攻击者选择的词)这些攻击可以是单个恶意用户进行攻击,也可以是多个恶意用户联合一起攻击。作者通过实验得出两个结论:采用模型替
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值