03-对抗样本攻击

本文探讨了深度学习在计算机视觉领域的对抗样本攻击问题。深度神经网络容易受到微小扰动的对抗样本影响,导致分类错误。文章介绍了对抗样本的评估标准,如准确率、召回率和精确率,并讨论了白盒和黑盒攻击、有目标和无目标攻击等攻击方式。同时,提出了对抗防御策略,包括对抗训练、梯度掩码和随机化等。实验结果显示,即使使用图像增强等方法,对抗样本仍能在一定程度上欺骗模型。
摘要由CSDN通过智能技术生成

对抗样本攻击

Github:https://github.com/Gary11111/03-GAN

研究背景

尽管深度学习在很多计算机视觉领域的任务上表现出色,Szegedy第一次发现了深度神经网络在图像分类领域存在有意思的弱点。他们证明尽管有很高的正确率,现代深度网络是非常容易受到对抗样本的攻击的。这些对抗样本仅有很轻微的扰动,以至于人类视觉系统无法察觉这种扰动(图片看起来几乎一样)。这样的攻击会导致神经网络完全改变它对图片的分类。此外,同样的图片扰动可以欺骗好多网络分类器。

对抗样本涉及到的评估标准

使用一个具体的例子来说明三个指标

假如某个班级有男生 80 人, 女生20人, 共计 100 人. 目标是找出所有女生. 现在某人挑选出 50 个人, 其中 20 是女生, 另外还错误的把 30 个男生也当作女生挑选出来了. 作为评估者的你需要来评估(evaluation)下他的工作

  • 准确率(accuracy)

    对于给定的策树数据集,分类器正确分类样本与总样本数之比。在开头的场景中,这个人把20个女生分类正确,50个男生分类正确所以

    a c c = ( 20 + 50 ) / 100 = 70 acc = (20+50)/100 = 70% acc=(20+50)/100=70

    如果只关注准确率会带来一个问题:假设我把所有人全部看作男生,这样我的准确率可以高达80%,然而这个算法显然是不合理的,因此需要引出recall和precision。

  • TP, FN, FP, TN

    相关 正类 无关 负类
    被检索到 TP: 正类判定为正类(50个女生中的20个女生) FP:负类判定为正类 (抽取的50个人中的30个男生)
    未被检索到 FN: 正类判定为负类(假设有女生没被采样到,她被判定成了男生) TN 负类判定为负类 (未被抽样的50个男生)
  • 召回率(recall)

    R = T P T P + F N R = \frac{TP}{TP+FN}

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值