WBZhang2022
我是西安电子科技大学网络空间安全硕博连读博士生,研究方向-AI安全(包括后门攻击/差分隐私/机器遗忘), 可信大模型(鲁棒性/轻量化),物联网安全(无线感知数据安全/边缘智能); 欢迎热衷于学术的研究同伴共同交流与合作 本人邮箱:weibinzhang1212@gmail.com
展开
-
精读笔记 - Attack of the Tails: Yes, You Really Can Backdoor Federated Learning
【博主前言】:本篇博客分模块理清edge-case backdoor算法基本流程,包括edge-case构造方法,基于PGD思想的恶意迭代更新。同时围绕着实验部分,学习其分析问题与验证问题的思路原创 2023-06-15 20:51:03 · 1183 阅读 · 0 评论 -
FL Backdoor Defense (Ⅱ) - DeepSight
【博主前言】:本篇博客详细解读DeepSight算法的基本原理,对每一个算法模块的设计思想,数学公式背后的物理意义以简单通俗的语言进行概括,希望能够为研究相关领域的初学者提供便利扫清阅读的障碍原创 2023-06-05 11:44:21 · 849 阅读 · 0 评论 -
FL Backdoor Defense (Ⅰ) - FLAME: Taming Backdoors in Federated Learning
【博主前言】:本篇论文提出了一种抵御联邦学习后门攻击的通用防御算法,被USENIX Security会议录用,四大安全顶会里的质量是非常高的,特别是方法上的创新,实验的充分性以及文章的写作结构都是非常清晰明了,给人一种启发式的感觉原创 2023-04-27 16:41:44 · 1173 阅读 · 1 评论 -
论文笔记 - Can You Really Backdoor Federated Learning?
【博主前言】:本篇博客重点讨论影响联邦学习后门攻击性能的一些重要因素,并通过实验分别验证了其假设的可靠性。原创 2023-04-16 16:53:12 · 978 阅读 · 0 评论 -
联邦学习数据投毒 - Data Poisoning Attacks Against Federated Learning Systems
【博主前言】:本篇博客是联邦学习数据投毒的经典文章,这篇文章虽然发表在一个不是很出名的会议上,但是这篇文章是How to Backdoor Federated Learning中语义后门的一个思想启蒙。精读这篇文章是充分理解联邦学习投毒/后门攻击相关参数调节细节的具体操作过程原创 2023-04-14 23:47:09 · 1609 阅读 · 0 评论 -
联邦学习模型投毒 - Analyzing Federated Learning through an Adversarial Lens
【博主前言】:这是联邦学习模型投毒攻击的代表著作,结合了这篇文章的代码,博主以大白话的形式将算法的过程描述出来。通过重温经典,系统归纳联邦学习投毒攻击原创 2023-04-13 17:13:56 · 1081 阅读 · 0 评论 -
精读笔记 - DBA: Distributed Backdoor Attacks Against Federated Learning
【博主前言】:本篇博客是一篇精读文章,重点不是在原理的理解,而是联邦学习后门攻击实验的设计方法,具体描述了验证联邦学习后门攻击算法有效性如何设计有说服力的实验原创 2023-04-06 21:24:04 · 640 阅读 · 0 评论 -
论文笔记 - Neurotoxin: Durable Backdoors in Federated Learning
【博主前言】:本篇博客是一篇论文略读笔记,主要归纳总结了联邦学习全局模型后门触发器保持持久性的一个解决方案原创 2023-03-20 23:18:35 · 487 阅读 · 1 评论 -
精读笔记 - How to backdoor Federated Learning
【博主前言】:本篇博客,是联邦学习后门攻击的开山之作,通过精读该篇论文,理解联邦学习场景下后门攻击的基本方法,通过作者的实验设计思想,为后续深挖奠定坚实的基础原创 2023-03-10 16:02:12 · 969 阅读 · 0 评论 -
论文笔记 - Poisoning and Backdooring contrastive learning
【博主前言】: 本篇博客记录了后门攻击多模态对比学习的思路,结合自身理解整理成一篇阅读笔记,敬请同行批评指正,欢迎志同道合者共同探讨,共同进步原创 2022-10-21 17:33:27 · 603 阅读 · 0 评论 -
论文笔记 - BadEncoder: Backdoor Attacks to Pre-trained Encoders in Self-Supervised Learning
【博主前言】:本篇博客是记录阅读BadEncoder论文,对作者提出的算法以比较通俗易懂的语言总结出的学习笔记,供大家学习参考,由于作者本人能力有限,不可避免出现解读有误,敬请大家批评指正,欢迎大家共同探讨原创 2022-10-20 23:45:15 · 736 阅读 · 0 评论 -
论文笔记(精读文章) - Invisible Backdoor Attack with Sample-Specific Triggers
【博主前言】:本篇博客是读者学习SSBA算法论文的阅读笔记,整理了论文提出的算法思路,以及以这一篇文章的实验为例子,详细介绍了后门攻击实验设置的方法以及验证的全流程,为后续验证自己验证idea设置实验提供了指导思想原创 2022-10-17 22:13:49 · 585 阅读 · 1 评论 -
论文笔记 - EncoderMI: Membership Inference against Pre-trained Encoders in Contrastive Learning
提出了通过对比学习预训练图像编码器的成员推理攻击方法;EncoderMI利用图像编码器对其训练数据过拟合的性质来推断数据是否在编码器的训练集中【性质】:一个过拟合的图像编码器可能会对一个训练集中数据的不同增强方式输出更加相似的特征向量针对Encoder过拟合的问题,作者提出了“早期停止”策略,权衡EncoderMI推理精度和图像编码器在下游任务的精度损失。原创 2022-10-08 16:16:11 · 500 阅读 · 1 评论