对抗样本攻击
Github:https://github.com/Gary11111/03-GAN
研究背景
尽管深度学习在很多计算机视觉领域的任务上表现出色,Szegedy第一次发现了深度神经网络在图像分类领域存在有意思的弱点。他们证明尽管有很高的正确率,现代深度网络是非常容易受到对抗样本的攻击的。这些对抗样本仅有很轻微的扰动,以至于人类视觉系统无法察觉这种扰动(图片看起来几乎一样)。这样的攻击会导致神经网络完全改变它对图片的分类。此外,同样的图片扰动可以欺骗好多网络分类器。
对抗样本涉及到的评估标准
使用一个具体的例子来说明三个指标
假如某个班级有男生 80 人, 女生20人, 共计 100 人. 目标是找出所有女生. 现在某人挑选出 50 个人, 其中 20 是女生, 另外还错误的把 30 个男生也当作女生挑选出来了. 作为评估者的你需要来评估(evaluation)下他的工作
-
准确率(accuracy)
对于给定的策树数据集,分类器正确分类样本与总样本数之比。在开头的场景中,这个人把20个女生分类正确,50个男生分类正确所以
a c c = ( 20 + 50 ) / 100 = 70 acc = (20+50)/100 = 70% acc=(20+50)/100=70
如果只关注准确率会带来一个问题:假设我把所有人全部看作男生,这样我的准确率可以高达80%,然而这个算法显然是不合理的,因此需要引出recall和precision。
-
TP, FN, FP, TN
相关 正类 无关 负类 被检索到 TP: 正类判定为正类(50个女生中的20个女生) FP:负类判定为正类 (抽取的50个人中的30个男生) 未被检索到 FN: 正类判定为负类(假设有女生没被采样到,她被判定成了男生) TN 负类判定为负类 (未被抽样的50个男生) -
召回率(recall)
R = T P T P + F N R = \frac{TP}{TP+FN}