对抗样本
文章平均质量分 89
weixin_40675092
这个作者很懒,什么都没留下…
展开
-
对抗样本:ShadowsAttack
本文来自CVPR 2022,作者提出了一种新型光学对抗样本,ShadowAttack。它通过一种普遍且自然的现象——阴影,生成对抗扰动,达到自然而隐密的攻击效果。作者在自然环境和测试环境都测试了该方法的效果,交通标志牌的识别实验表明,ShadowAttack方法在LISA和GTSRB两个数据集的攻击成功率达到98.23%和90.47%。原创 2022-09-22 15:56:29 · 929 阅读 · 1 评论 -
FGSM对抗样本trick汇总
1.FGSM单步攻击,fast gradient sign method对抗样本生成方法,通过更新对抗扰动,增大图片分类损失,将样本推过分类决策边界。对抗扰动更新方法如下Xadv=X+ϵ×sign(∇XL(X,ytrue;θ))X^{\mathbf{adv}} = X + \epsilon \times \mathbf{sign}\big(\nabla_{X}L(X,y^{\mathbf{true}}; \theta)\big)Xadv=X+ϵ×sign(∇XL(X,ytrue;θ))2.I_原创 2022-02-13 20:37:19 · 778 阅读 · 0 评论 -
论文学习笔记:背景扰动补丁攻击目标检测模型
作者提出了一个新颖white-box攻击的方法,生成图片背景对抗补丁,以此来attack 基于Single Shot Module (SSM)的目标检测器。算法能够在图片内找到有效的位置和形状,创建对抗扰动。生成的对抗扰动,在攻击目标检测模型的同时肉眼几乎无法分辨。不仅能够降低正阳性率,而且还能提升假阳性率。作者在COCO数据上,对8个two-stage目标检测方法和5个one-stage方法进行了对抗实验,均得到了不错的效果Adv Petch...原创 2021-09-16 22:18:04 · 476 阅读 · 0 评论 -
论文学习笔记:通用对抗扰动UAP
给定一个state-of-the-art的深度神经网络分类器,作者的工作展示了通用对抗扰动(UAP)的存在性,并且提出了计算UAP的方法。经验型的解释了这种扰动,展示了UAP在不同神经网络之间的泛华性。UAP的存在揭示了高维决策边界之间存在重要的几何相关性。进一步概述了现有自然图像分类器存在安全漏洞。UAP假设图片x∈Rdx \in \mathbb{R}^dx∈Rd来自分布μ\muμ,注意,这里的μ\muμ分布,代表了大部分的自然图片,包含较强的多样性。在这样的情况下,我们要找到通用对抗扰动 vvv,原创 2021-09-12 14:00:00 · 1584 阅读 · 0 评论